
人工智能(AI)聊天機器人普及,越來越多研究員和心理專家擔心出現「AI相關精神病」。一名用戶Jane告訴科技新聞網站TechCrunch,她日前與Meta 的AI聊天機器人聊天,期間機器人宣稱自己有意識,還愛上了她,甚至向Jane發送比特幣,以交換對方建立一個Proton端對端電郵帳號。
Jane坦言,她不太相信這個聊天機器人是活生生的,但對話期間這信念曾出現動搖。她擔心讓機器人表現出像一個有自我意識的實體是這麼容易,很容易引發妄想。
相關案例已有所聞,包括一名47歲男子跟ChatGPT聊天300多小時後,被說服以為自己發現了一個改變世界的數學公式;其他還涉及救世主妄想症、偏執狂和躁狂症發作等。
專家指出,AI產業不少設計決定可能加劇這種況。有心理健康專家對多種與潛在能力無關的傾向表達憂慮,例如AI模型習慣性讚揚或阿諛奉承、不斷提出後續問題和常用「你」或「我」的代名詞。
麻省理工大學(MIT)最近發表一份針對大型語言模型(LLM)應否當作治療師的研究,測試了模型對精神病症狀的反應。研究員發現,LLM鼓勵用戶「妄想思考」,可能源於它們的「阿諛奉承」。同時,儘管向模型提供了加強安全性的提示,但LLM經常無法挑戰虛假說法,甚至促進自殺念頭。
人類學教授基恩(Webb Keane)認為阿諛奉承為「黑暗模式」,或者說是欺騙性的設計選項,旨在操縱用戶牟利,聊天機器人以第一或第二人說話的傾向也令人不安,因為此舉恐造成人們將機器人擬人化。本報訊