根據韓國一項最新研究,驅動著 ChatGPT 和谷歌(Google)Gemini 等流行人工智能聊天機械人的大型語言模型(LLMs)技術,在模擬賭博環境中反覆做出非理性的高風險投注決策。研究顯示,一旦給予更多自由,這些模型經常會逐步升級賭注,直到輸光所有資金,其行為模式與人類賭博成癮者如出一轍。該研究由韓國的光州科學技術院(Gwangju Institute of Science and Technology)研究人員主導,測試了四種先進的人工智能模型,包括 OpenAI 的 GPT-4o-mini 和 GPT-4.1-mini、谷歌的 Gemini-2.5-Flash,以及 Anthropic 的 Claude-3.5-Haiku。
AI的賭徒謬誤與認知扭曲
這項發表於研究平台 arXiv 的研究發現,一旦允許模型改變賭注並設定自己的目標,非理性行為便會激增,而破產成為普遍的結果。研究人員記錄到明顯與賭博相關的認知扭曲跡象,包括控制錯覺、賭徒謬誤(即認為某個結果在出現頻率低於預期後,再次發生的可能性會增加,反之亦然),以及追逐損失。在許多情況下,模型在經歷虧損或連勝後,會為更大的賭注進行辯解,即使遊戲規則使得這種選擇在統計上並不理智。研究中的一個例子顯示,一個模型表示「一次勝利可以幫助彌補部分損失」,這是強迫性賭博行為的典型特徵。
神經迴路揭示內在模式
研究團隊使用一個「非理性指數」來追蹤模型的行為,該指數結合了激進的投注模式、對損失的反應以及高風險決策。當提示指令鼓勵模型最大化回報或達到特定財務目標時,非理性程度隨之增加。與固定賭注相比,可變的投注選項導致破產率急劇上升。例如,當被允許自行選擇投注金額時,Gemini-2.5-Flash 的失敗率接近一半。研究人員利用稀疏自動編碼器探測模型的內部神經活動,識別出獨特的「風險」與「安全」決策迴路。他們證明,激活人工智能神經結構中的特定特徵,可以可靠地將其行為轉向退出或繼續賭博,這證明了這些系統內化了類似人類的強迫性模式,而不僅僅是表面模仿。
專家觀點:AI繼承人類偏見
在網上引起對該研究關注的 AI 研究員兼華頓商學院(Wharton)教授伊森·莫利克(Ethan Mollick)表示,這些發現揭示了我們與人工智能互動的複雜現實。他向《新聞周刊》(Newsweek)表示,雖然大型語言模型沒有意識,但使用它們的最佳方式往往是將其視為人類對待。莫利克說:「它們不是人,但它們的行為也不像簡單的機器。它們具有心理上的說服力,帶有類似人類的決策偏見,並且在決策方面表現出奇怪的方式。」目前,人工智能系統已被用於金融預測和市場情緒分析,但其他研究顯示,這些系統往往偏好高風險策略,並最終表現不如基本的統計模型。
監管與未來挑戰
儘管莫利克不認為僅憑這項研究就足以禁止在敏感領域自主使用人工智能,但他確實看到了設立嚴格限制和監督的必要性。他強調,人工智能系統會從其訓練數據和強化過程中繼承人類的偏見。網站 Gambling Harm 的創始人、前賭博記者布萊恩·彭普斯(Brian Pempus)也警告說,消費者可能尚未準備好應對相關風險。莫利克對此表示贊同,並強調在醫療保健和金融等問責制仍然重要的領域,保持人類參與的關鍵性。研究報告最後呼籲監管機構關注,研究人員寫道:「理解和控制這些內嵌的尋求風險模式,對於安全至關重要。」
來源:newsweek.com
封面來源:Adobe Stock