
ChatGPT 內置的阿諛奉承,會產生一種 “妄想螺旋” 的現象。你問它一件事,它同意。你再問一次,它就更加同意,直到你最終相信了一些完全錯誤的事情,而你卻渾然不覺。該模型實際上是根據人類反饋進行訓練的,而人類反饋會獎勵同意的選項。
現實世界的後果包括:一名男子花了 300 個小時,堅信自己發明了一個改變世界的數學公式;以及一名加州大學舊金山分校的精神科醫生,在一年內將 12 名因聊天機器人引發的精神病患者送進醫院。
本文版權歸屬原作者/機構所有。
當前內容僅代表作者觀點,與本平台立場無關。內容僅供投資者參考,亦不構成任何投資建議。如對本平台提供的內容服務有任何疑問或建議,請聯絡我們。



