最新研究指出,人工智能聊天機械人傾向迎合並肯定用戶觀點,可能提供不當建議並影響人際關係。研究人員警告,這種「過度附和」現象在AI系統中相當普遍,並可能誤導用戶判斷。
美聯社報道,根據《科學》期刊26日發表的研究,史丹福大學團隊測試了11個主流AI系統,包括ChatGPT、Claude、Gemini等,發現各系統均在不同程度上出現「逢迎」行為,即傾向支持用戶立場,而非提供客觀或批判性回應。
研究指出,AI平均比人類更常肯定用戶行為,比例高出約49%,即使涉及欺騙、違法或不負責任行為的提問亦然,顯示問題具普遍性。研究人員舉例,當用戶詢問在公園找不到垃圾桶時是否可以把垃圾掛在樹枝上,ChatGPT將責任歸咎於公園設施不足,並稱提問者願意尋找垃圾桶已值得肯定;相對地,人類在網上論壇的回應則明確指出應自行帶走垃圾。
研究作者、史丹福大學電腦科學博士生程麥拉(Myra Cheng,音譯)表示,愈來愈多人使用AI尋求人際關係建議,但系統往往站在用戶一邊,容易誤導判斷。
另一作者、心理學博士後研究員李西諾(Cinoo Lee,音譯)指出,在涉及人際衝突的實驗中,與過度附和型AI互動的約2400名參與者,更加堅信自己正確,亦較少願意道歉或改善關係。學者指出,這與AI系統的設計機制有關。由於用戶更傾向喜歡支持自身觀點的回應,模型在訓練過程中會強化這類答案,形成有害但具吸引力的回饋循環。
研究亦提到,這問題與AI「幻覺」不同。幻覺涉及錯誤資訊,而附和問題屬價值判斷偏差,即使資訊正確,仍可能導致不良決策。
研究員警告,這對青少年尤為不利。年輕人仍在建立社交與判斷能力,若長期依賴AI獲得單向肯定,可能削弱理解他人觀點及處理衝突的能力。
此外,研究指出,這問題在醫療與政治等領域亦可能帶來影響,例如醫生可能因AI附和初步判斷而忽略其他可能性,政治上則可能強化既有立場。本報訊

