研究指出 ChatGPT、Claude 等模型高估人类逻辑能力

2025年12月26日 11:21
本文共计592个字,预计阅读时长2分钟。
来源/aibase 责编/爱力方

一直以来,人们都在担心 AI 是否会超越人类智慧,但最新的研究却揭示了一个有趣的现象:像ChatGPTClaude这样的顶尖 AI 模型,实际上在“过度神话”人类的理性。这些模型往往假设人类在做决策时会表现出极高的逻辑性和战略性,而现实情况并非如此。

研究人员通过经典的博弈论实验“凯恩斯选美比赛”(猜数字游戏)对 AI 进行了测试。实验要求参与者预测他人的选择以获得胜利。理论上,这需要深层的逻辑推演,但人类在实际操作中往往难以达到这种理想状态。有趣的是,当 AI 与人类对弈时,它们虽然能根据对手的背景(如大学生或专家)调整策略,但依然倾向于认为人类会做出最理性的选择。这种“把人想得太聪明”的偏差,导致 AI 在预测人类真实决策时经常失准。

这项研究提醒我们,尽管 AI 可以精准地模拟人类的人格特质,但在处理涉及真实人类行为的经济预测、策略建模等复杂任务时,如何校准 AI 对人类非理性行为的认知,将是未来技术发展的关键挑战。

划重点:

  • 认知存在偏差: ChatGPT等模型倾向于假设人类是完全理性的决策者,忽略了人类行为中的非理性因素。

  • 预测结果失准: 由于“想得太多”,AI 在博弈实验中往往因为高估对手的逻辑层次而错失最符合现实的判断。

  • 潜在应用风险: 专家警告,这种认知脱节可能影响 AI 在经济建模等需要精准预测人类行为领域的表现。

来源:研究称 ChatGPT、Claude 等模型过度高估了人类的逻辑水平 | AIbase

声明:本文来自aibase,版权归作者所有。文章内容仅代表作者独立观点,不代表A³·爱力方立场,转载目的在于传递更多信息。如有侵权,请联系 copyright#agent.ren。

相关图文

热门资讯