更新时间:作者:小小条
AI评审占比引争议,近两成学术会议意见全由机器生成,顶会紧急调整规范应对论文代写
哥本哈根大学的科研团队最近提交了一篇花了半年时间打磨的论文,面对评审结果时直接愣住了,评论中居然对文中根本不存在的数据大做文章,评分低得离谱,工作人员反复核对后才发现,评审人似乎压根没认真读稿,这不是个人经历,这回规模让人咋舌,ICLR 2026会议的所有审稿意见被Pangram Labs用自研AI检测模型过了一遍,15899份意见直接被判定为全自动生成,占总量21%,人肉评审已经成了“稀缺资源”——更有趣的是,只有43%的意见完全没有AI参与,剩下的大多或多或少被AI操控过手,连投稿论文中都出现了199篇全靠AI写出来的成果,另外有9%的论文内容里AI生成占比过半,这些数字摆出来,学术圈瞬间炸开了锅

Pangram Labs的CEO马克斯・斯佩罗在检测报告发布会上强调,自家模型误报极低,检测流程包括OCR转码与分段分析,还专门用2022年前的论文核查过有效性,意味着那些被点名的AI评审基本坐实,比如光看内容长度与词汇密度就不难认出——许多意见废话连篇,逻辑混乱,引用要么随意拼凑,要么干脆胡编,评分尺度还特别极端,但找不到任何真正的技术依据,这种情况已影响到正常学术讨论
卡内基梅隆大学的格雷厄姆・诺伊比格(Graham Neubig)甚至在社交平台上发起悬赏,鼓励全球同行一起盯评审质量,大家讨论时最常提到的槽点就是,AI撰写的评论几乎不会给有价值的专业反馈,要么全是安全话术,要么随意挑刺,严重的时候还会直接误导作者,这样的意见对论文改进毫无帮助,甚至引发了不少学者的公开吐槽,部分作者为应对AI评审还特意在论文中插入隐藏关键词,试图“引导”机器打高分,这样一来,技术手段反而成了操控学术评价的新工具
ICLR会议官方随后发布了新规,强调所有用AI生成的论文内容必须明确标注,如被发现虚假引用或逻辑漏洞会直接拒稿,评审环节也要求人工把关,任何AI介入的评审一旦被认定为不合规,相关责任将追溯到审稿人本人,未来可能直接影响其投稿和评审资格,不止ICLR,CVPR、NeurIPS等顶级会议纷纷跟进,Nature和arXiv也已升级检测与公开流程,力求把AI使用过程透明化
学术评审工作量这几年激增,许多审稿专家在短时间内要高效处理多篇论文,而评审本身没有报酬,压力之下选择求助AI,*降低了反馈质量,学术圈显然到了不得不正视AI“滥用”问题的时候,如果不从结构上缓解人力评审负担,类似情况还可能反复出现
现在越来越多学者开始探讨AI在学术流程中的合理定位,讨论的声音远不止局限于技术本身,更多人关心AI是否会影响学术诚信与创新标准,毕竟,研究成果的价值最终还是要用人的专业判断去衡量,不知道大家怎么看待学术圈这波AI冲击,欢迎留言一起来聊聊,相关数据与检测流程详见ICLR、Pangram Labs及Nature公开报道
版权声明:本文转载于今日头条,版权归作者所有,如果侵权,请联系本站编辑删除