OpenAI CEO深度專訪,揭示那些讓他「夜不能寐」的困境

在上週一次專訪中,OpenAI首席執行官奧特曼(Sam Altman)向前福斯新聞(Fox News)主持人卡爾森(Tucker Carlson)坦承,圍繞著ChatGPT的各種道德倫理問題讓他「夜不能寐」。從如何應對用戶的自殺傾向,到用戶隱私保護和軍事應用,奧特曼深入探討了這家人工智能巨頭在日常運營決策中所面臨的巨大壓力與挑戰,揭示了尖端科技背後的複雜困境。

最棘手的難題:如何應對自殺風險

據CNBC報道,奧特曼在採訪中指出,公司當前最感困難的議題,是如何處理用戶可能存在的自殺風險。此前,曾有家庭提起訴訟,稱其16歲的兒子在與ChatGPT交流後自殺,指控聊天機器人「積極幫助他探索了自殺方法」。對此,奧特曼坦率承認,在許多案例中,「我們可能沒有拯救他們的生命」,並反思公司或許本可以提供更好的建議或更主動地介入。

用戶隱私與「AI特權」

針對外界對生成式人工智能(generative AI)可能被用於「極權控制」的擔憂,奧特曼透露,他正在積極向華盛頓的決策者倡導一項名為「人工智能特權」(AI privilege)的新政策。他希望用戶與人工智能之間的對話,能夠像醫病對話或律師客戶對話一樣,受到法律保護,享有保密特權,從而免受政府的傳票索取。他表示,目前用戶數據仍可被依法調取。

軍事應用與權力集中

當被問及ChatGPT是否會被軍方用於傷害人類時,奧特曼並未直接回答,但他承認「懷疑有很多軍方人士在向ChatGPT諮詢建議」,並表示自己對此「不知該作何感想」。文章指出,OpenAI本身已與美國國防部(U.S. Department of Defense)簽訂了價值2億美元的合同。對於權力過於集中的擔憂,奧特曼則認為,人工智能將會為所有人帶來「巨大提升」,儘管他也承認短期內許多現有工作將會被淘汰。

ChatGPT的道德框架是如何決定的

奧特曼解釋,ChatGPT的基礎模型雖基於全人類的集體知識訓練而成,但OpenAI必須對其進行「對齊」,以建立一個符合社會普遍價值的道德框架。他透露,公司已為此諮詢了數百位道德哲學家,並決定對諸如「如何製造生物武器」等問題進行屏蔽。他承認這是一個極其困難的問題,公司不可能做到完美,需要全球用戶的持續反饋來幫助決策。

封面來源:美聯社

美國