跳转到主要内容

NeurIPS会议因虚假引用丑闻陷入信任危机

NeurIPS会议因虚假引用面临信誉危机

在这起震动人工智能研究界的丑闻中, prestigious NeurIPS会议卷入大规模引用造假事件。AI检测公司GPTZero发现51篇录用论文中共存在至少100个伪造参考文献——包括虚构作者和虚假出版信息。

Image

'氛围引用'现象

研究人员将这种不良趋势称为"氛围引用"——作者添加看似合理但完全虚构的参考文献。部分论文列出"John Doe"等不存在作者,另一些则引用明显伪造的arXiv标识符(如arXiv:2305.XXXX)。这些幽灵引用尽管存在明显漏洞,却逃过了同行评审。

问题主要集中在纽约大学等顶尖机构和谷歌等科技巨头的投稿中。"尤其令人担忧的是这些本应达到最高标准的论文出现了问题,"一位熟悉调查的消息人士表示。

Image

压力下的系统

该丑闻揭示了学术出版体系更深层的裂痕。NeurIPS投稿量从2020年的9,467篇飙升至今年的21,575篇——惊人的220%增长。这种稿件海啸迫使组织方招募大量缺乏经验的审稿人应对。

据报道部分审稿人走捷径使用AI工具而非仔细阅读投稿。"当被要求数周内评审数十篇复杂论文时,走捷径的诱惑难以抗拒,"一位匿名审稿人解释称。

后果与改革

NeurIPS已宣布将伪造引用作为拒稿或撤稿依据。但在以引用为学术货币的领域,信任损害可能更难修复。

该事件引发关于如何在AI研究指数级扩张下保持质量控制的难题。随着预印本服务器和会议被投稿淹没,传统同行评审体系显得日益吃紧。

关键点:

  • NeurIPS51篇论文包含100+虚假引用
  • 造假内容包括虚构作者无效出版ID
  • 自2020年以来投稿量翻倍增长,使审稿人不堪重负
  • 会议组织方现视虚假引用为拒稿依据
  • 丑闻凸显AI研究出版领域的成长阵痛

喜欢这篇文章?

订阅我们的 Newsletter,获取最新 AI 资讯、产品评测和项目推荐,每周精选直达邮箱。

每周精选完全免费随时退订

相关文章

News

谷歌Gemini 3将AI推理能力推向科学新高度

谷歌发布Gemini 3 Deep Think,标志着AI能力在日常对话之外的重大飞跃。这款专业模型以奥林匹克竞赛级别的推理能力解决复杂科学问题,在数学和编程挑战中表现惊人。现已面向精选研究人员和Google AI Ultra订阅用户开放,有望从基准测试冠军转型为真正的实验室伙伴。

February 13, 2026
AI研究机器学习科学计算
News

苹果的制胜秘诀:为何调优后的开源模型在UI设计上超越GPT-5

苹果研究团队在AI辅助UI开发领域取得惊人突破。通过与21位设计专家合作,通过草图与代码修改提供针对性反馈,他们证明了在AI训练中质量胜过数量。经过微调的Qwen3-Coder模型虽规模较小,却在生成应用界面时超越了GPT-5——这印证了在人工智能时代,专业的人类洞察力依然不可替代。

February 6, 2026
AI研究UI开发机器学习
News

AI领军人物彭天宇执掌腾讯混元多模态研究

AI研究新星彭天宇,这位与清华大学渊源深厚的学者,已加入腾讯混元部门担任首席研究科学家。这位机器学习专家将引领多模态强化学习的创新,融合视觉与语言AI能力。拥有包括顶级会议奖项和论文发表在内的卓越履历,彭的加入彰显了腾讯在生成式AI技术前沿突破的决心。

January 30, 2026
AI研究腾讯混元多模态学习
News

AI以全新方法破解著名数学难题

OpenAI最新模型通过解决一个长期存在的数论问题在数学界引起轰动。这个对埃尔德什问题的解决方案引起了菲尔兹奖得主陶哲轩的注意,他称赞其独创性。但成功背后隐藏着一个发人深省的现实——AI解决此类问题的总体成功率仍然很低,提醒我们这些工具是助手而非人类数学家的替代品。

January 19, 2026
AI研究数学机器学习
NYU教授42美分的AI口试揭露作弊漏洞
News

NYU教授42美分的AI口试揭露作弊漏洞

一位NYU教授发现,在笔试中表现出色的学生往往无法口头解释基本概念。他的解决方案?每次仅需42美分的AI口试。尽管部分学生感到压力,70%的参与者承认这种测试比传统方法更能衡量真实理解力。该实验既揭示了作弊漏洞,也展现了AI变革学术评估的潜力。

January 5, 2026
教育领域AI应用学术诚信NYU创新
News

DeepSeek发现更智能的AI未必需要更大的模型

DeepSeek最新研究揭示了人工智能发展的重大突破——优化神经网络架构比单纯扩大模型规模更能有效提升推理能力。他们创新的'流形约束超连接'方法在仅增加极小训练成本的情况下,将复杂推理准确率提高了7%以上,挑战了业界对不断增大模型的执着追求。

January 4, 2026
AI研究机器学习神经网络