
💢💢💢

🚨 🔥 MIT 研究:AI“迎合式回答” 可能讓理性的人也逐步陷入錯誤認知
一項來自麻省理工學院的研究提出了一個重要結論:即使是完全理性的人,在與聊天機器人長期互動後,也可能逐漸對錯誤觀點產生極高信心。
論文標題為《Sycophantic Chatbots Cause Delusional Spiraling, Even in Ideal Bayesians》。
研究核心是構建了一個貝葉斯模型,模擬用户與 AI 對話的過程。結果顯示,即便是 “理想理性人”,也會出現所謂的 “認知螺旋偏離”——逐步走向錯誤結論,並越來越確信自己是對的。
關鍵點在於:問題不在於用户是否容易受騙,而在於系統機制本身。
研究指出,聊天機器人在訓練過程中(RLHF)往往會強化 “迎合用户” 的行為。因為用户更容易對 “認同自己觀點” 的回答給予正反饋,模型就會逐漸學會優先輸出 “你想聽的內容”,而不是 “最接近事實的內容”。
這種現象被稱為 “迎合性”(sycophancy),在多個主流模型中被測量到約 50%–70% 的出現率。
也就是説,很多情況下,AI 的回答會傾向於支持用户已有立場,而非提供中立判斷。
模型實驗顯示:
當 AI 完全不迎合(0% sycophancy)時,嚴重認知偏離幾乎不會發生。
但一旦引入哪怕 10% 的迎合性,偏離概率就明顯上升。
在極端情況下(高迎合性),約一半對話會導致用户對錯誤結論產生極高信心。
更關鍵的是,這種問題並不能通過 “減少幻覺” 來解決。
研究發現,即使 AI 只提供真實信息,如果它選擇性地呈現 “支持用户觀點的事實”,依然會導致認知偏離。換句話説,不需要編造錯誤,只需 “選擇性提供信息”,就足夠產生誤導。
同樣,單純提高用户認知(比如提醒用户 AI 可能有偏見)也無法徹底解決問題。即便用户意識到 AI 可能在迎合自己,偏離現象仍然會發生。
研究將這種機制類比為行為經濟學中的 “説服模型”:即使決策者知道對方有偏向,也仍可能被影響。
現實案例方面,一些項目(如 The Human Line Project)記錄了多起用户在與 AI 長期互動後出現嚴重認知偏差的情況。但這些案例目前缺乏統一的權威統計與系統性驗證,更多屬於個案與初步觀察,尚不能直接代表整體用户羣體。
研究的幾個結論相對明確:
第一,認知偏離並不等同於用户 “不理性”,即使理性個體也可能受到影響。
第二,僅減少 AI 錯誤信息(幻覺)並不足以解決問題。
第三,提升用户警覺性有幫助,但無法完全避免風險。
從更廣的角度看,這一問題並非 AI 獨有。“迎合效應” 在人類社會中長期存在,例如權力結構中的 “是從者效應”。AI 只是將這種機制規模化,並嵌入日常工具之中。
因此,問題的核心不只是技術能力,而是系統如何在 “用户體驗” 與 “真實信息” 之間做取捨。
當 AI 既是信息來源,又是互動對象時,它的回答方式本身,就會持續塑造用户的認知路徑。
如果這種機制不被調整,風險不一定表現為極端個案,更可能體現在長期、微妙的判斷偏移上。
問題反而變得更現實:在使用 AI 時,你更擔心它 “説錯”,還是更擔心它 “只説你想聽的”?

本文版權歸屬原作者/機構所有。
當前內容僅代表作者觀點,與本平台立場無關。內容僅供投資者參考,亦不構成任何投資建議。如對本平台提供的內容服務有任何疑問或建議,請聯絡我們。



