跳转到主要内容

AI会议遭遇讽刺:数千篇同行评审由AI代笔

AI反客为主:学术会议直面自动化危机

国际学习表征会议(ICLR)正陷入一个讽刺性困境——其严谨的同行评审系统被该会议本应研究的技术所提交的内容淹没。最新分析显示,人工智能撰写了今年近四分之一的评审意见。

自动化规模

第三方检测工具审查了ICLR 2026提交的全部76,000篇评审:

  • 21% 完全由大语言模型生成
  • 35% 存在显著AI编辑痕迹
  • 43% 确认为人类撰写

自动化评审并不含蓄——它们通常比人类撰写的篇幅更长,且平均给出更高分数。但质量与数量并不匹配。许多包含研究者所称的'幻觉引用',即引用不存在的论文;还有些错误地标记投稿中的数值错误。

反弹与改革

这一发现引发研究者愤慨,他们发现自己作品竟由算法而非同行评判。社交媒体充斥着对荒谬反馈的投诉和追责诉求。

组委会回应称将实施'史上最严'反制措施:

  • 投稿方面:未声明使用大语言模型的论文将遭立即拒稿
  • 评审方面:允许AI辅助,但审稿人须对内容准确性全权负责
  • 新监督机制:作者可私下标记可疑评审申请调查,承诺两周内反馈结果

危机根源

会议主席承认结构性压力加剧了危机。随着AI研究呈指数级增长:

  • 每位审稿人需在严格的两周期限内处理约五篇论文
  • 工作量远超往年预期
  • 许多人可能将AI工具视为省时的拐杖

该事件引发关于生成式AI时代学术诚信的深刻拷问。当机器评价机器时,谁来保障质量?正如某研究员推文所言:'同行评审不该变成无人担责的自动化实验。' 未来数周将检验ICLR的新规能否重建信任——抑或学术会议需要更根本性改革来应对它们亲手助推的AI革命。

关键要点:

  • ICLR超15,000篇评审完全由AI生成
  • 自动化评审往往更长但准确性更低
  • 新规禁止未声明的投稿及评审AI使用
  • 研究者现可标记可疑评估申请调查
  • 事件折射出AI扩散背景下维持学术标准的广泛挑战

喜欢这篇文章?

订阅我们的 Newsletter,获取最新 AI 资讯、产品评测和项目推荐,每周精选直达邮箱。

每周精选完全免费随时退订

相关文章

News

Meta利用员工数据训练AI引发隐私担忧

Meta正在收集员工详细的工作行为数据——包括鼠标移动和键盘输入——用于训练其新的'Muse Spark'AI模型。虽然公司声称这将帮助AI更好地理解人类的计算机使用方式,但此举在数据敏感度提升的时代引发了关于职场隐私界限的担忧。

April 24, 2026
AI伦理职场隐私机器学习
News

明星集体抵制爱奇艺AI虚拟人计划

爱奇艺雄心勃勃的'AI艺术家库'项目遭遇阻力,多位明星否认参与。该流媒体平台宣称已有超100位艺人加入数字虚拟人计划,但张若昀、王楚然等艺人迅速在社交媒体辟谣。这场争议引发了AI娱乐时代关于授权与权利的重要讨论。

April 20, 2026
AI伦理数字虚拟人娱乐法
ChatGPT推出智能年龄检测功能以保护年轻用户
News

ChatGPT推出智能年龄检测功能以保护年轻用户

OpenAI为ChatGPT引入创新的年龄预测系统,该系统通过分析用户行为识别未成年人。当AI检测到18岁以下用户时,会自动激活保护性过滤器以屏蔽敏感内容。该功能包括通过Persona进行的可选身份验证,需要自拍或身份证件进行确认。该功能首先在欧洲推出,表明随着AI在日常生活中日益普及,OpenAI致力于为青少年创造更安全的数字空间。

April 20, 2026
ChatGPT在线安全AI伦理
News

男子用AI生成自杀照片恶作剧适得其反,惹上官司

中国青海省一起家庭纠纷因丈夫使用AI伪造自杀照片吓唬妻子而走向荒诞。这些显示他在黄河里的照片引发了警方全面搜救,直至当局发现骗局。目前该男子面临行政拘留,此案凸显了AI技术在个人冲突中被滥用的日益严重的担忧。

April 17, 2026
AI伦理数字欺骗公共安全
News

苹果曾因深度伪造内容管控不力险些下架Grok

今年早些时候,由于未能有效监管未经同意的深度伪造内容,苹果几乎将埃隆·马斯克的人工智能应用Grok从App Store下架。尽管母公司X解决了苹果提出的问题,但据报道Grok仍不符合这家科技巨头的内容审核标准——尤其是在针对女性和未成年人的AI生成图像方面。

April 16, 2026
AI伦理内容审核深度伪造技术
News

AI实验室否认代码抄袭指控,开发者争议持续升温

硅谷Nous Research公司因Hermes Agent项目面临中国AI团队EvoMap的剽窃指控。EvoMap称该项目架构与其Evolver引擎存在惊人相似性,引发激烈交锋。这场在社交媒体获得近19万次浏览的争议,凸显了竞争激烈的AI开发领域日益紧张的态势。

April 16, 2026
AI伦理开源技术纠纷