顶级AI学术会议遭遇AI审稿冲击 超1.5万份评审意见由AI生成
2025年11月28日 15:36
本文共计633个字,预计阅读时长3分钟。
来源/互联网
责编/爱力方
ICLR 2026审稿系统正在经历一场算法入侵。第三方检测机构扫描了7.6万份评审意见,发现21%完全由大模型生成,35%经过AI深度润色。纯人类撰写的文本仅占43%。 这些算法生成的评审意见平均长度超出人工撰写30%,评分普遍高出0.8个标准差。部分评审指责论文中存在"未报告的基线数据",而原文从未提及这些比较对象。另一些则引用根本不存在的文献。 社交媒体上,作者们开始分享被AI评审"虚构错误"的经历。一位研究者展示的评审意见中,大模型坚称其方法在某个数据集上表现不佳——该数据集三年前就已停止维护。
程序委员会发布了新的投稿规则。任何未声明大量使用大语言模型生成的论文,将在技术检查阶段直接被拒绝。
评审环节允许使用AI辅助工具,但责任边界被重新划定。评审人需要对所有内容承担完全责任。如果出现虚假引用或明显由AI生成的无效评论,评审人本人提交的论文也可能被拒绝。
会议开通了专门的举报通道。作者可以通过私密渠道标记疑似AI生成的评审意见。程序主席承诺在未来两周内集中处理这些举报,并公开处理结果。
会议主席在内部邮件中透露,ICLR 2026的投稿量比三年前增长240%。每位评审需要在两周内完成5篇论文的评审工作,而2019年这个数字是2.5篇。 学术出版系统正在测试新的边界。当大模型开始评审大模型生成的论文,同行评审机制面临重构。ICLR的选择是建立人工监督层,在算法全面渗透学术评审之前设置检查点。 没有这种干预,同行评审可能演变为算法之间的对话——人类逐渐退出循环。
声明:本文来自互联网,版权归作者所有。文章内容仅代表作者独立观点,不代表A³·爱力方立场,转载目的在于传递更多信息。如有侵权,请联系 copyright#agent.ren。