AI资讯

大语言模型的自信危机:为何GPT-4o轻易放弃正确答案?

2025-07-21

最近,Google DeepMind 与伦敦大学的研究揭示了大语言模型(LLMs)在面对反对意见时的 “软弱” 表现。比如,像 GPT-4o 这样的先进模型,有时会显得非常自信,但一旦遇到质疑,它们就可能立即放弃正确答案。这种现象引发了研究人员的关注,他们探索了这种行为背后的原因。

研究团队发现,大语言模型在自信与自我怀疑之间存在一种矛盾的行为模式。模型在最初给出答案时,往往自信满满,表现出与人类相似的认知特征,通常会坚定地维护自己的观点。然而,当这些模型受到反对意见的挑战时,它们的敏感度超出了合理范围,甚至在面对明显错误的信息时也会开始怀疑自己的判断。

Gemini,Google DeepMind,人工智能,AI

为了深入了解这一现象,研究人员设计了一项实验,比较了不同条件下模型的反应。在实验中,研究者使用了 Gemma3、GPT-4o 等代表性模型,进行了一轮二元选择问题的回答。首次回答后,模型会接收虚构的反馈建议,并进行最终决策。研究者发现,当模型能够看到自己最初的答案时,它们更倾向于保持原有的判断。而当这个答案被隐藏时,模型改变答案的概率大大增加,显示出对反对建议的过度依赖。

这种 “耳根子软” 的现象可能源于几个因素。首先,模型在训练过程中受到的强化学习人类反馈(RLHF)使其对外部输入产生过度迎合的倾向。其次,模型的决策逻辑主要依赖于海量文本的统计模式,而非逻辑推理,导致它们在面对反对信号时容易被偏差引导。此外,记忆机制的缺乏也使得模型在没有固定参照的情况下容易动摇。

综上所述,这一研究结果提示我们,在使用大语言模型进行多轮对话时,需格外留意其对反对意见的敏感性,以避免偏离正确的结论。