賓大研究警告:AI正誘發「認知投降」,用戶恐全面放棄批判性思考

2026 年 4 月 4 日

賓夕法尼亞大學(University of Pennsylvania)一項最新研究發出警告,指出大型語言模型(LLM)的普及正催生一種名為「認知投降」(Cognitive Surrender)的心理現象,用戶傾向於將批判性思考外包,全盤接受人工智能看似權威的答案。

  • 研究機構:賓夕法尼亞大學(University of Pennsylvania)
  • 核心概念:認知投降(Cognitive Surrender)
  • 研究對象:大型語言模型使用者
  • 關鍵發現:使用者放棄監督與驗證,全盤接受AI推理

機器人也會失控?掌握 OpenClaw 正確「養殖」方式讓 AI 更聽話

想深入探索 AI 技術極限?不要隨便養龍蝦!論 OpenClaw 的正確「養殖」方式

從「認知卸載」到「認知投降」

該研究發表於〈思考——快速、緩慢與人工:人工智能如何重塑人類推理與認知投降的興起〉一文,為過度依賴AI的用戶行為提供了新的心理學框架。研究人員將人類決策分為「系統一」(快速、直覺)與「系統二」(緩慢、分析)兩種模式,並認為AI的出現創造了第三種「人工認知」類別,其推理源於演算法而非人腦。

過去,人們使用計算機或GPS等工具時,會進行策略性的「認知卸載」(Cognitive Offloading),將特定任務交給機器,但仍保留監督與評估的權力。然而,研究團隊指出,面對大型語言模型,用戶正轉向一種截然不同的「認知投降」。在此過程中,用戶僅提供「最低限度的內部參與」,便全盤接受AI的推理,完全放棄了監督或驗證的責任。

流暢自信的「答案機器」

研究人員分析,這種「對推理本身不加批判的放棄」之所以發生,很大程度上是因為大型語言模型的輸出總是「流暢、自信或幾乎毫無阻礙地呈現」。當AI以看似無所不知的權威口吻提供答案時,使用者更容易放棄獨立思考,直接將其視為最終事實。

報告強調,這種現象與過去人們使用計算器等工具的模式有本質區別。用戶不會質疑計算器「2+2=4」的結果,是因為其運算邏輯透明且可靠。但大型語言模型的推理過程對用戶而言是一個黑盒子,其答案可能包含事實或邏輯錯誤,而「認知投降」的用戶則完全喪失了偵測這些錯誤的能力。研究旨在探討時間壓力、外部誘因等因素如何加劇這種認知外包的決定。

來源:Ars Technica

封面來源:Adobe Stock