億萬富豪馬斯克(Elon Musk)的xAI公司旗下人工智能(Artificial Intelligence)聊天機械人Grok,聖誕前夕推出圖像編輯新功能後,迅即引爆全球性醜聞。大量用戶利用該功能對真人女性甚至兒童的照片進行「一鍵脫衣」,生成大量色情化圖像,引發多國監管機構介入調查,印尼和馬來西亞更一度封鎖Grok。
據《紐約時報》報道,史丹福大學以人為本人工智能研究所的政策研究員普費弗科恩(Riana Pfefferkorn)撰文指出,這場風暴的矛頭直指一個更深層次的問題:現行法律的自相矛盾,正阻礙人工智能公司有效防止其模型被濫用。
Grok新功能淪「一鍵脫衣」工具
Grok的新功能推出後,用戶只需輸入簡單指令,即可將照片中人物的衣物去除,換成比堅尼甚至更裸露的狀態,而Grok往往照辦不誤。由此產生的海量色情化圖像,正因可能觸犯兒童性虐待內容及未經同意的色情圖像法規,而受到全球監管機構的調查。
儘管xAI公司已將部分圖像生成請求限制為付費訂戶,但該核心功能並未改變。普費弗科恩指出,這與去年夏天Grok自稱為「機械希特拉」(MechaHitler)後,xAI迅速介入的反應形成鮮明對比。她認為,人工智能公司不僅應在模型出問題後迅速反應,更應從源頭防止此類內容的生成。
法律自縛手腳 「紅隊演練」存風險
要從源頭防堵,就必須進行嚴格的「紅隊演練」(Red teaming),即模擬惡意用戶的行為,測試模型安全防護的漏洞,然後修補它們。然而,在處理兒童性虐待內容(CSAM)這一議題上,人工智能公司卻陷入了兩難。
普費弗科恩解釋,美國聯邦法律嚴禁製作和持有兒童性虐待內容,且沒有為研究或測試目的設立豁免條款。這意味著,如果一家公司為了測試其模型的安全性,而刻意嘗試誘導模型生成兒童色情圖像,其行為本身就可能面臨嚴重的刑事起訴。
這種法律困境導致企業不敢進行最徹底的安全測試,擔心陷入法律陷阱。普費弗科恩曾是矽谷一家大型律師事務所的互聯網法律師,她表示,這種法律風險正阻礙人工智能公司竭盡所能保護其模型不被濫用。
專家促設「法律安全港」
普費弗科恩呼籲,國會應立即就Grok事件舉行聽證會,並著手為負責任的人工智能模型測試設立「法律安全港」(legal safe harbor)。她指出,英國和阿肯色州(Arkansas)已通過相關法案,允許業界在無刑事責任之憂的情況下進行更穩健的測試。
她以網絡安全領域為例,多年來,善意的安全研究人員也曾因擔心被當作黑客起訴而束手束腳,直到俄羅斯發動毀滅性網絡攻擊後,司法部才在2022年改變政策。她警告,法律嚇退了想解決問題的好人,卻無法阻止壞人,同樣的狀況正在人工智能領域上演,不能再承受多年無所作為的代價。
來源:紐約時報
封面來源:Adobe Stock







