当你看到 AI 瞬间生成一份排版精美、逻辑清晰的代码或文档时,是否会下意识地选择直接信任?据 AIbase 报道,大模型巨头Anthropic近日发布了一项名为“AI 流利度指数”(AI Fluency Index)的研究报告。该研究通过分析近万个匿名Claude对话样本后发现了一个令人警惕的现象:AI 生成的结果外观越“精致”,用户进行事实核查的意愿就越低。
报告指出,当Claude产出如小型应用、网页代码或格式化文档等“人工制品”(Artifacts)时,用户的批判性参与度会出现显著下滑。数据显示,在这类高质量视觉产出的场景下,用户的事实核查行为下降了 3.7 个百分点,对论证过程的质疑减少了 3.1 个百分点,甚至对缺失背景的警觉性也降低了 5.2 个百分点。这种“精美即正确”的心理错觉,正成为人类有效使用 AI 的隐形障碍。
然而,研究也揭示了“高效选手”的共性。数据显示,约 85.7% 的高质量对话都经历了反复的迭代与打磨。那些愿意通过多轮追问来引导 AI 的用户,发现逻辑漏洞的概率比普通用户高出 5.6 倍,识别背景缺失的能力也提升了 4 倍。
目前,Anthropic建议用户在面对 AI 产出时应保持三个核心习惯:将首次回答视为“草稿”而非终稿、对看似完美的输出保持怀疑,并在对话之初就明确合作规则(如要求 AI 列出推理过程)。真正的 AI 胜任力不仅在于指令的编写,更在于人类在“精美输出”面前能否守住最后一道审校防线。