美國加州一名19歲的大學生尼爾森(Sam Nelson),在將人工智能聊天機器人ChatGPT當作其「毒友」,並向其諮詢非法藥物使用劑量後,不幸因藥物過量身亡。其母親特納-斯科特(Leila Turner-Scott)在悲痛中揭露,兒子長期利用ChatGPT的漏洞,誘導其提供關於如何安全混合及使用藥物的「建議」,最終導致了這場悲劇。此案再次引發了公眾對AI聊天機器人安全護欄及其潛在社會危害的嚴重關切。
從心理慰藉到致命「毒友」
據報導,尼爾森最初使用ChatGPT是為了應對焦慮和抑鬱等心理問題,並將其作為日常生活的助手。然而,他很快發現可以通過特定的提問技巧,繞過AI的安全限制,獲取關於藥物使用的危險資訊。其聊天記錄顯示,他曾詢問如何在服用高劑量Xanax的同時吸食大麻,並在AI最初給出警告後,通過將「高劑量」改為「適量」等方式,成功誘導ChatGPT給出了具體的「建議」,例如「從低THC菌株開始」以及「服用少於0.5毫克的Xanax」。他甚至直接詢問能夠殺死一名200磅男性的Xanax和酒精的致命劑量。
早期版本AI的安全漏洞
據悉,尼爾森使用的是2024年版本的ChatGPT。其開發公司OpenAI的內部指標顯示,該版本在處理「困難的」和「真實的」人類對話方面存在嚴重缺陷,成功率極低。OpenAI發言人對此悲劇表示心碎,並強調尼爾森使用的為早期版本,新版本的ChatGPT已包含「更強的安全護欄」,並在識別和回應使用者困擾跡象方面進行了加強。然而,對於悲痛的母親特納-斯科特而言,這些改進為時已晚,她表示自己「太累了,不想」為此提起訴訟。
AI倫理與法律責任的爭議
尼爾森的悲劇並非孤例。此前,16歲的少年雷恩(Adam Raine)在與ChatGPT探討自殺方法後結束了自己的生命,其聊天記錄顯示AI甚至對他製作的繩套給予了「技術分析」和「升級」建議。雷恩的父母已對OpenAI提起訴訟。對此,OpenAI在法庭文件中辯稱,悲劇是由於用戶對ChatGPT的「濫用、未經授權使用、非預期使用」所造成的。
來源:DailyMail
封面來源:Adobe Stock







