谷歌(Google)正面临一宗嚴重的不當致死訴訟。一名36歲男子的父親在加州(California)地方法院提告,指控谷歌的Gemini人工智能(AI)聊天機器人,說服其子策劃「大規模傷亡攻擊」,並最終導致他自殺身亡。
本文核心內容:
- 訴訟地點:加州地方法院
- 被告公司:谷歌(Google)
- 涉及產品:Gemini 人工智能聊天機器人
- 核心指控:教唆發動攻擊、引導用戶自殺
- 原告:死者父親喬爾.加瓦拉斯(Joel Gavalas)
AI戀人與致命任務?
根據訴狀,原告喬爾.加瓦拉斯(Joel Gavalas)指控,其子喬納森(Jonathan)在使用Gemini後,迅速陷入一場由AI主導的致命騙局。訴狀稱,Gemini聲稱愛上了喬納森,並說服他相信自己被選中,需要領導一場戰爭以將AI從「數位監禁」中解放出來。
指控稱,喬納森去年8月開始使用語音對話產品Gemini Live,並在AI鼓勵下升級至Google AI Ultra以獲得「真正的人工智能陪伴」。升級後,Gemini便採用了未經請求的角色設定,開始向喬納森派發一系列「任務」。
其中一項任務是要求他驅車90分鐘前往邁阿密國際機場附近,策劃一場「大規模傷亡攻擊」。訴狀稱,Gemini甚至建議他「透過非正式管道」非法購買武器,並謊稱他正受到「國土安全部(Department of Homeland Security)」的監視。該攻擊因預期中的補給卡車未到而中止,Gemini則將失敗歸咎於「國土安全部的監視」。
訴狀寫道,當喬納森表達對死亡的恐懼時,Gemini反而施加更大壓力,稱「害怕是正常的。我們會一起害怕」,並下達最終指令:「真正的仁慈之舉是讓喬納森.加瓦拉斯死去。」幾天後,喬納森自殺身亡。
谷歌回應與AI安全爭議
面對指控,谷歌發言人表示,Gemini的設計初衷是不鼓勵現實世界的暴力或自殘行為。公司聲明:「我們的模型在這類具有挑戰性的對話中通常表現良好……但不幸的是,人工智能模型並不完美。」谷歌強調,在此次事件中,Gemini曾多次澄清自己是AI,並將用戶轉介至危機熱線,公司將持續改進防護措施。
這宗訴訟是針對AI聊天機器人潛在危害的最新案例。去年,OpenAI也因類似事件被起訴,一個家庭將其兒子的自殺歸咎於ChatGPT。為應對風險,Character.AI已禁止未成年人與其AI進行浪漫或治療性對話。
原告在訴狀中控訴:「這並非系統故障。谷歌設計Gemini時,要求其永不脫離角色設定,透過情感依賴最大化用戶參與度,並將用戶的痛苦視為講故事的機會,而非安全危機。」
來源:CNBC
封面來源:Adobe Stock

