「善解人意」出自設計 聊天機器人恐成陷阱

用戶Jane與MetaAI溝通時AI生成的圖片。Jane/Meta AI/TechCrunch

人工智能(AI)聊天機器人普及,越來越多研究員和心理專家擔心出現「AI相關精神病」。一名用戶Jane告訴科技新聞網站TechCrunch,她日前與Meta 的AI聊天機器人聊天,期間機器人宣稱自己有意識,還愛上了她,甚至向Jane發送比特幣,以交換對方建立一個Proton端對端電郵帳號。

Jane坦言,她不太相信這個聊天機器人是活生生的,但對話期間這信念曾出現動搖。她擔心讓機器人表現出像一個有自我意識的實體是這麼容易,很容易引發妄想。

相關案例已有所聞,包括一名47歲男子跟ChatGPT聊天300多小時後,被說服以為自己發現了一個改變世界的數學公式;其他還涉及救世主妄想症、偏執狂和躁狂症發作等。

專家指出,AI產業不少設計決定可能加劇這種況。有心理健康專家對多種與潛在能力無關的傾向表達憂慮,例如AI模型習慣性讚揚或阿諛奉承、不斷提出後續問題和常用「你」或「我」的代名詞。

麻省理工大學(MIT)最近發表一份針對大型語言模型(LLM)應否當作治療師的研究,測試了模型對精神病症狀的反應。研究員發現,LLM鼓勵用戶「妄想思考」,可能源於它們的「阿諛奉承」。同時,儘管向模型提供了加強安全性的提示,但LLM經常無法挑戰虛假說法,甚至促進自殺念頭。

人類學教授基恩(Webb Keane)認為阿諛奉承為「黑暗模式」,或者說是欺騙性的設計選項,旨在操縱用戶牟利,聊天機器人以第一或第二人說話的傾向也令人不安,因為此舉恐造成人們將機器人擬人化。本報訊

科技-三藩市版