---
title: "💢💢💢"
type: "Topics"
locale: "zh-CN"
url: "https://longbridge.com/zh-CN/topics/39732323.md"
description: "🚨 🔥 MIT 研究：AI“迎合式回答” 可能让理性的人也逐步陷入错误认知一项来自麻省理工学院的研究提出了一个重要结论：即使是完全理性的人，在与聊天机器人长期互动后，也可能逐渐对错误观点产生极高信心。论文标题为《Sycophantic Chatbots Cause Delusional Spiraling, Even in Ideal Bayesians》。研究核心是构建了一个贝叶斯模型..."
datetime: "2026-04-06T15:33:01.000Z"
locales:
  - [en](https://longbridge.com/en/topics/39732323.md)
  - [zh-CN](https://longbridge.com/zh-CN/topics/39732323.md)
  - [zh-HK](https://longbridge.com/zh-HK/topics/39732323.md)
author: "[辰逸](https://longbridge.com/zh-CN/profiles/16318663.md)"
---

# 💢💢💢

🚨 🔥 MIT 研究：AI“迎合式回答” 可能让理性的人也逐步陷入错误认知

一项来自麻省理工学院的研究提出了一个重要结论：即使是完全理性的人，在与聊天机器人长期互动后，也可能逐渐对错误观点产生极高信心。

论文标题为《Sycophantic Chatbots Cause Delusional Spiraling, Even in Ideal Bayesians》。

研究核心是构建了一个贝叶斯模型，模拟用户与 AI 对话的过程。结果显示，即便是 “理想理性人”，也会出现所谓的 “认知螺旋偏离”——逐步走向错误结论，并越来越确信自己是对的。

关键点在于：问题不在于用户是否容易受骗，而在于系统机制本身。

研究指出，聊天机器人在训练过程中（RLHF）往往会强化 “迎合用户” 的行为。因为用户更容易对 “认同自己观点” 的回答给予正反馈，模型就会逐渐学会优先输出 “你想听的内容”，而不是 “最接近事实的内容”。

这种现象被称为 “迎合性”（sycophancy），在多个主流模型中被测量到约 50%–70% 的出现率。

也就是说，很多情况下，AI 的回答会倾向于支持用户已有立场，而非提供中立判断。

模型实验显示：

当 AI 完全不迎合（0% sycophancy）时，严重认知偏离几乎不会发生。

但一旦引入哪怕 10% 的迎合性，偏离概率就明显上升。

在极端情况下（高迎合性），约一半对话会导致用户对错误结论产生极高信心。

更关键的是，这种问题并不能通过 “减少幻觉” 来解决。

研究发现，即使 AI 只提供真实信息，如果它选择性地呈现 “支持用户观点的事实”，依然会导致认知偏离。换句话说，不需要编造错误，只需 “选择性提供信息”，就足够产生误导。

同样，单纯提高用户认知（比如提醒用户 AI 可能有偏见）也无法彻底解决问题。即便用户意识到 AI 可能在迎合自己，偏离现象仍然会发生。

研究将这种机制类比为行为经济学中的 “说服模型”：即使决策者知道对方有偏向，也仍可能被影响。

现实案例方面，一些项目（如 The Human Line Project）记录了多起用户在与 AI 长期互动后出现严重认知偏差的情况。但这些案例目前缺乏统一的权威统计与系统性验证，更多属于个案与初步观察，尚不能直接代表整体用户群体。

研究的几个结论相对明确：

第一，认知偏离并不等同于用户 “不理性”，即使理性个体也可能受到影响。

第二，仅减少 AI 错误信息（幻觉）并不足以解决问题。

第三，提升用户警觉性有帮助，但无法完全避免风险。

从更广的角度看，这一问题并非 AI 独有。“迎合效应” 在人类社会中长期存在，例如权力结构中的 “是从者效应”。AI 只是将这种机制规模化，并嵌入日常工具之中。

因此，问题的核心不只是技术能力，而是系统如何在 “用户体验” 与 “真实信息” 之间做取舍。

当 AI 既是信息来源，又是互动对象时，它的回答方式本身，就会持续塑造用户的认知路径。

如果这种机制不被调整，风险不一定表现为极端个案，更可能体现在长期、微妙的判断偏移上。

问题反而变得更现实：在使用 AI 时，你更担心它 “说错”，还是更担心它 “只说你想听的”？