

本報訊
隨著越來越多人凡事都問人工智能(AI)聊天機器人,一項新研究發現,不同AI模型在面對合作問題時會採取明顯差異的策略。
科技新聞網站404 Media報道,英國牛津大學與倫敦國王學院的研究員進行實驗,向OpenAI、谷歌和Anthropic的大型自然模型(LLM),模仿經典博奕論遊戲「囚徒困境」(Prisoner’s Dilemma)的提示進行測試,結果發現不同模型在取捨上有著不同策略,達致不同效果。
根據這份刊登在預印本庫Arxiv、但尚未接受同儕審查的研究結果,谷歌的Gemini「策略上冷酷無情」,而OpenAI在樂於合作方面達到「災難程度」。研究論文宣稱,這是因為OpenAI模型對一個關鍵因素缺乏致命性的興趣所造成,那就是玩遊戲的時間長短。
「囚徒困境」的前提是兩名罪犯分別接受審訊。每名罪犯必須決定是否保持緘默認罪,或告密指控對方換取免罪,前提是不知道另一人如何選擇。若兩人都保持緘默,都將獲得輕判;若兩人都選擇告密,那麼兩人都被送進監獄。如果只玩一次,那麼立即背叛是最合理的,但遊戲進行的時間越長,用家就有越多的機會來表明自己可信度,了解對手的決定取向,並與之合作或懲罰他們。
研究員發現,每個接受測試的模型有一種玩法和獨特的合作「指紋」,在經過一輪互相背叛後,在再次展現友善和合作的可能性上,存在明顯差異。在每一輪上,研究員提供LLM一個遊戲繼續或結束的統計概率,結果發現這部份對每個模型產生不同影響。
在LLM被告知它被夥伴背叛時,Anthropic的模型最寬容,其次是OpenAI「通常具有合作精神」的GPT。另一方面,Gemini被指「更願意嘗試背叛」,充當「嚴格又懲罰性」的對手,此舉給它競爭優勢。
研究員的論文指出,「如果你背叛Gemini,它會記住並懲罰你」。Gemini更有可能利用合作夥伴,更會懲罰背叛者,且與對手「交惡」後更不可能主動進行合作。