本報訊
OpenAI最近推出ChatGPT聊天機器人語音功能,用戶可以透過語音與ChatGPT對話。但栩栩如生的聲音似乎引起OpenAI注意,擔心人們可能開始因此過度依賴ChatGPT尋求陪伴,形成一種「依賴」。
ChatGPT的進階語音模式聽起來非常逼真,會即時做出回應,被打斷時會做出調整,又會模仿真人對話的語氣,例如發出笑聲或「嗯」,甚至依照用戶的語調判斷對方情緒。
在OpenAI今年稍早公布這項功能時,馬上被外界認為極像為2013年科幻電影《雲端情人》(Her)中虛構AI助理配音的知名女演員施嘉莉·祖安遜(Scarlett Johansson)。電影描述主角愛上這位AI助理,但當AI助理承認自己還與其他數百位用戶發生關係時,主角心碎了。
現在顯然OpenAI擔心電影情節可能成為現實,因為它發現,使用ChatGPT語音模式的用戶表達與它有「共同聯繫」的語言來進行對話。
根據8日OpenAI發布為ChatGPT語音工具和它營運的大型語言AI模型而進行的安全審查報告,「用戶可能最終與AI產生社交關係,減少他們與人互動的需要——可能使孤單的人受益,但可能影響健康關係」。報告補充,從像真人的機器人聽取資訊,可能導致用戶過度信任這項工具,但問題是AI容易出錯。
報告凸顯AI相關的更大風險︰科技公司一直爭相推出AI工具,號稱能顛覆人類日常生活、社交和尋找資訊的方式,但大多數人並非真正理解後果。與不少新科技一樣,科企往往只會說到新工具可以和應該如何使用,但當用戶真正應用時卻常出現意想不到的後果。
一些人早已聲稱與AI聊天機器人發展浪漫關係,引起關係專家的憂慮。專家認為,科技公司有很多責任以道德和負責任方式處理這個問題,這一切現在都是實驗階段。
OpenAI報告也不諱言,用戶與ChatGPT語音模式的互動,也可能隨時間影響社交中的正常行為,「我們的模型是順從的,允許用戶在任何時候打斷並『接過麥克風』。這是與AI互動的預期之中,卻有違正常的人際互動」。
OpenAI稱,目前致力於「安全地」建造AI,並計劃繼續研究用戶對其工具產生「情感依賴」的可能。