我熬秃头写的论文 你用ChatGPT一秒审完?

2025年11月28日 13:32 次阅读 稿源:网易科技 条评论

全球最顶尖的 AI 学术会议,正在被 AI “攻陷”。这听起来像个地狱笑话,却在现实中发生了。最新数据显示:ICLR 2026 竟有超过 1.5 万份审稿意见完全由 AI 代写。试想一下,你熬秃了头写出的论文,审稿人可能连看都没看,直接甩给 ChatGPT 生成了一堆“正确的废话”,甚至还一本正经地指责你文中根本不存在的数据有误。

曾经神圣的“同行评审”,如今正演变成一场 AI 生成内容的注水游戏。

据统计,约 21% 的评审意见被判定为“全自动生成”,甚至连投稿论文本身也混入了大量 AI “枪手”。面对这场史无前例的信任危机,ICLR 组委会终于坐不住了,祭出了史上最严厉的“封杀令”。

怀疑成真:研究者收到“诡异”评审报告

“评审意见非常啰嗦,满是要点,却要求进行非标准的统计分析。”美国卡内基梅隆大学的 AI 研究员格雷厄姆·诺伊比格(Graham Neubig)道出了许多投稿人的困惑。社交媒体上,数十名学者纷纷吐槽:评审中出现了“幻觉”引用,反馈异常冗长且含糊不清。

丹麦哥本哈根大学的计算机科学家德斯蒙德·埃利奥特(Desmond Elliott)团队更遭遇了令人啼笑皆非的评审——对方竟提到论文中根本不存在的数值结果,并据此给出了最低分,让论文命运悬于“接受与拒绝”的边缘。 他的博士生直觉判断:这像是大型语言模型的“杰作”。

数据揭秘:数万份评审惊现 AI“魅影”

怀疑需要证实。诺伊比格公开悬赏,很快得到了专业 AI 文本检测公司 Pangram Labs 的响应。他们对 ICLR 2026 提交的 19490 篇研究和 75800 份评审进行了大规模扫描。

结果令人震惊:

· 约 21% 的同行评审(15,899 份)被判定为完全由 AI 生成。

· 超过一半的评审含有 AI 使用的迹象。

· 甚至投稿论文本身也未能幸免:1%(199 篇)被判定为完全 AI 生成,9% 的投稿包含超过 50% 的 AI 生成文本。

“人们之前只是怀疑,但没有具体证据。” Pangram 首席执行官马克斯·斯佩罗(Max Spero)表示,他们的分析为此提供了确凿的数据支撑。

会议硬核回应:用 LLM 糊弄?直接重罚。

面对大规模 AI 滥用,ICLR 2026 组织方迅速行动,并发布了措辞强硬的声明。会议高级项目主席巴拉特·哈里哈兰(Bharath Hariharan)承认,这是会议首次大规模面临此问题。

·论文投稿:用 AI 不声明=直接拒稿

会议方明确,大量使用 LLM 写论文却不声明,将被直接拒稿。 “LLM 胡编乱造、虚构文献、逻辑掉线?将被视为违反道德准则。”会议已启动 AI 检测工具与领域主席双轨核查,“抓到一个毙一个”。

·同行评审:AI 写可以,内容你全责

针对评审环节,声明强调:用 LLM 写评审可以,但评审人对内容负全责。如果出现“瞎扯、虚构引用”,直接记违规,后果可能包括评审人自己投稿的论文被直接拒稿。

·作者遇到问题评审?立即举报。

作者若收到疑似 AI 生成的垃圾评审,可立即私信举报。程序组承诺将进行处理,坚决维护评审过程的严肃性。

·严厉处罚:结果全部公开

接下来 1-2 周,领域主席(ACs)和高级领域主席(SACs)将严查论文与评审,处理结果全部公开。 会议方表示:“我们早预判了 LLM 会搞事情,现在,是动真格的时候了。”

背后困局:评审压力与学术诚信的拉锯

这场风波也折射出 AI 学术界繁荣背后的隐忧。

· 评审负荷过重ICLR 2026 每位评审平均需在两周内审完 5 篇论文。“这远高于过去的工作量。”

· 领域扩张太快:“过去五年,AI 领域呈指数级扩张,我们正面临评审危机。”诺伊比格道出了同行评审系统承受的巨大压力。

学者困境:如何应对“AI 废话”的轰炸?

一些作者因评审中的虚假陈述已撤稿。更多人则在苦恼:如何回应这些充满“AI 风格”的评审?

埃利奥特的经验颇具代表性:“疑似 AI 生成的评审往往包含‘大量内容’。”其中一部分或许相关值得回应,但另一部分则完全“毫无意义”。在信息洪流中辨别有效反馈,成了研究者的新负担。

这场 ICLR 的风波,无疑为整个学术界敲响了警钟:当 AI 变得足够聪明,不仅能辅助研究,更能“污染”科研诚信的核心环节——同行评审时,我们赖以建立信任的体系,将如何应对?

对文章打分

我熬秃头写的论文 你用ChatGPT一秒审完?

1 (50%)
已有 条意见

    最新资讯

    加载中...

    编辑精选

    加载中...

    热门评论

      招聘

      created by ceallan