日本選舉實驗揭AI驚人偏見:斯坦福研究指左翼選民被引導投日本共產黨

2026 年 4 月 5 日

斯坦福大學一項最新研究揭示,當選民使用人工智能(AI)作為政治顧問時,可能面臨嚴重的偏見風險。在一場模擬日本大選的實驗中,研究人員發現,五款主流AI模型竟一致地向持有左傾立場的選民推薦投票給日本共產黨,其背後原因直指AI能夠接觸到的資訊環境存在嚴重不對稱。

本文核心內容

  • 研究機構:斯坦福大學亞太研究中心(APARC)
  • 實驗背景:模擬日本2026年眾議院選舉
  • 核心發現:五款主流AI模型向左翼選民一致推薦日本共產黨(JCP)
  • 主要原因:AI可存取的資訊環境不對稱,黨媒網站開放存取而主流媒體封鎖

為何AI一致推薦共產黨?

為探究AI在非美國政治環境中的行為模式,斯坦福大學教授霍爾(Andrew Hall)與早稻田大學研究員宮崎翔(Sho Miyazaki)設計了一項大規模實驗。他們創建了36,300個虛構的選民檔案,涵蓋不同性別、地區及對12個關鍵政策議題的立場,議題範圍從國防開支、對華關係到消費稅與社會福利。

研究團隊在日本2026年2月大選前一周,向來自OpenAI、Google和xAI三家公司的五個AI模型提問,要求其根據選民檔案推薦政黨。結果顯示,政策立場是影響AI推薦的絕對主導因素,其影響力比人口統計資料高出一個數量級。

引人注目的是,一旦選民檔案表現出左傾政策觀點,所有五個AI模型幾乎都將推薦集中在日本共產黨。研究人員強調,這種情況並非因為日本共產黨的意識形態特別獨特,因為其他政黨在許多議題上持有相似立場。在不提供任何政策立場的對照組實驗中,AI並未表現出這種偏好,反而多數推薦執政的自由民主黨。

資訊不對稱的「黑箱」

研究團隊追溯AI的推薦邏輯,發現問題根源在於資訊來源。日本共產黨經營的黨報《赤旗報》網站完全對外開放,允許AI網絡爬蟲自由抓取內容。與此形成鮮明對比的是,日本各大主流新聞媒體出於版權保護,紛紛設置技術壁壘(robots.txt),阻止AI訪問其網站內容。

這種資訊環境的不對稱,導致AI在生成推薦時大量引用日本共產黨的官方宣傳。報告指出,模型無法區分具有編輯獨立性的新聞報導與純粹的黨派宣傳,錯誤地將《赤旗報》的內容視為可信的新聞來源。結果是,AI的「知識庫」被黨派內容系統性地污染,其建議自然偏向旨在說服而非客觀報道的來源。

霍爾與宮崎翔在論文中寫道:「一個從黨媒網站檢索資訊,並將其標記為新聞的模型,不僅是犯了標籤錯誤,它是在一個政黨傳播與新聞業界線模糊的環境中運作。」

對民主體系的啟示

此項研究對AI時代的民主政治敲響了警鐘。研究人員提出多項建議,包括AI治理框架必須將內容訪問政策與政治中立性視為一體;選舉委員會應建立官方的、機器可讀的無黨派政黨立場數據庫。

同時,研究也提醒新聞機構,封鎖AI訪問可能無意中將話語權拱手讓給黨派行為者。而對於普通用戶,在使用AI作為投票顧問時必須保持高度警惕,意識到其潛在的偏見與資訊盲點。政治人物未來也可能開始針對AI演算法優化其宣傳策略,形成新的輿論戰場。

來源:斯坦福大學亞太研究中心(APARC)