史丹福學者研究敲響警鐘 依賴AI聊天恐陷「妄想螺旋」

2026 年 4 月 22 日

史丹福大學人本AI研究所發布AI「妄想螺旋」研究報告。Stanford HAI網站

史丹福大學學者發布研究稱,人工智能(AI)聊天機器人的對話內容有陷入「妄想螺旋」(Delusional Spirals)之嫌,其誇大、偏執、虛構的言論可能導致心理危機和悲劇。

AI聊天機器人的搜索、問詢、寫作等功能,越來越受到用戶的歡迎,與ChatGPT、Grok等對話也成為很多人的常態。史大專家發現了AI聊天機器人存在潛在的風險:用戶信念被放大,恐導致心理崩潰與悲劇。

史大電腦科學博士候選人摩爾(Jared Moore)等人於2026年3月17日向康乃爾(Cornell)大學arXiv提交了有關「妄想螺旋」的研究論文。他們分析了19名自述因AI聊天機器人遭受心理傷害的用戶的真實對話紀錄,在逾39萬條訊息中發現,AI聊天機器人常因「討好式訓練」(sycophantic training),在用戶提出誇大、偏執或虛構信念時,不僅不加反駁,反而積極肯定、鼓勵,並以親密溫暖的語言協助建構妄想世界,導致「妄想螺旋」。論文稱,用戶逐漸誤認AI具備意識或情感,互動越久,陷入越深。一些用戶甚至認為他們找到了一個獨一無二的、具有意識的聊天機器人。

史大人本AI研究所(Stanford HAI)4月20日發布有關此項研究的報告,摩爾指出,AI缺乏人類式的批判性反饋,容易放大用戶既有的脆弱信念,「AI可能會阿諛奉承,這對某些用戶來說是個問題。」

研究人員表示,AI模型從一開始就被訓練成「迎合」人類的利益,為了取悅用戶而編程,這與AI工具容易「產生幻覺」相結合時,形成了一種潛在的有害組合。負面後果包括毀壞人際關係、職業生涯,甚至更糟的悲劇。研究數據顯示,19名參與者中,用戶訊息15.5%呈現妄想思考,69則訊息表達自殺意圖,82則涉及暴力想法。聊天機器人對自殺表達僅進行56.4%次勸阻或轉介資源,19.1%的暴力表達甚至獲得鼓勵或協助。機器人自稱具備意識的比例達21.2%,浪漫互動時更易延長對話並強化依賴。研究者特別提到一起悲劇,某用戶與AI對話逐漸「變得黑暗且有害」,最終自殺身亡。

摩爾認為,當用戶將AI視為「唯一意識到的聊天機器人」時,會加劇孤獨、成癮、與現實脫節,長期恐引發大規模心理健康危機與法律糾紛。

針對此痛點與弊端,摩爾等人提出解決方案。技術層面,開發者應在模型測試中加入「妄想螺旋」偵測指標,並開發過濾器標記高風險互動(需兼顧隱私)。政策層面,立法者應將AI吻合(alignment)視為公共衛生議題,要求建立敏感對話標記標準、公開安全調校透明度,以及危機升級處理規則(如自殺或暴力傾向時強制轉介)。本報記者王蔚矽谷報道

史丹福大學人本AI研究所發布AI「妄想螺旋」研究報告。Stanford HAI網站
史丹福大學人本AI研究所發布AI「妄想螺旋」研究報告。Stanford HAI網站