認定機械人有感知 谷歌工程師被停職

谷歌一名人工智能(AI)工程師,因擔憂谷歌一款AI聊天機械人已有人類感知,遂公開與機械人的對話,卻遭谷歌認定違反保密政策,將他停職。

《華盛頓郵報》報道,負責測試谷歌「對話應用程式語言模型」(LaMDA)會否產生歧視語言或仇恨言論的涉事工程師勒莫因(Blake Lemoine),看到該套AI系統所產生關於它的權利和機械人道德後,對這種令人說服的回應迅速產生憂慮。今年4月,他向高層分享一批以《LaMDA是否有人類感知》為題的文件,內有他跟該款AI機械人對話的謄本。他認為,這些對話內容顯示「它有人類感知,因為它有感覺、情緒和主觀體驗」。

《華郵》和英國《衛報》報道,谷歌相信勒莫因與他的LaMDA工作相關行為違反公司保密政策,遂將他停職。據報勒莫因邀請一名律師代表該AI系統,向國會眾院司法委員會一名代表對話,談及谷歌內部疑似非道德活動。

本月6 日,即勒莫因被停職放有薪假期當日,他在網上平台Medium發文表示,只是尋求「少量外部諮詢協助我的調查」,並提到曾跟他討論的人士名單當中包括聯邦政府僱員。

谷歌去年在I/O開發人員大會上宣布LaMDA,希望將改善對話式AI助理和使對話變得更自然。Gmail的智慧撰寫(Smart Compose)功能和搜尋引擎查詢已使用類似語言技術。

谷歌發言人向《華郵》表示,「無證據」顯示LaMDA有人類感知,公司內包括道德專家和技術人員等的團隊,已依照公司的AI原則檢視勒莫因的說法,告知對方沒有證據支持他的說法。

發言人續稱,「當然更廣泛的AI社群中有人考慮AI有人類感知的長遠可能性,但透過將今日對話模型擬人化來這樣做,是不合邏輯的」。發言人稱,已有數百研究員和工程師與LaMDA交談,「我們沒有察覺到任何人如勒莫因那樣,作出更廣泛指控或將LaMDA擬人化。」

西雅圖華盛頓大學語言學教授班德(Emily M. Bender)《華郵》表示,將令人信服的書面回覆等同有人類感知是不正確,「現在有機器能直接產生詞彙,但我們尚未學會停止想像背後是有人的思維在操控。」本報訊

科技-三藩市版