跳转到主要内容

延世大学深陷AI作弊丑闻:逾半数学生被曝使用ChatGPT

韩国名校陷入AI作弊风暴

首尔——延世大学一场常规在线考试演变成了韩国近年来最严重的学术诚信事件。在这门颇具讽刺意味的《自然语言处理与ChatGPT》课程中,教授发现涉及600名注册学生中超半数的广泛作弊行为。

完美作弊温床

10月15日举行的在线期中考试初看防护严密:要求学生全程录制电脑屏幕、手部及面部图像。但正如一名学生匿名坦承:「我们找到了所有监控的漏洞。」

有人巧妙调整摄像头角度制造盲区,另有人同时运行多个窗口隐藏操作。选择题形式尤其诱使学生寻求AI工具快速获取答案。

如潮水般的自白

当怀疑产生时,教授采取了非常规手段——承诺对坦白者宽大处理。结果令人震惊:在社交平台"Everytime"的匿名调查中,353名受访者有190人承认作弊。

「考试期间大多数人都在用ChatGPT」,一名学生直言不讳。另一人补充道:「用AI查答案已成常态。」

校方对确认案例采取零容忍政策,作弊者直接判不及格。但如此规模的事件已非个别不当行为——而是现代教育面临的系统性挑战。

政策真空遭遇技术革命

这场丑闻暴露出韩国高等教育体系的明显缺陷。根据2024年韩国职业能力研究院调查,虽然91.7%的学生承认学术中使用AI工具,但71.1%的大学尚未建立正式的生成式AI使用规范。

「我们正在追赶」,教育政策专家朴敏智博士坦言,「技术发展速度远超我们的监管能力」。

未来何去何从?

延世事件引发紧迫议题:

  • 大学如何为AI时代重构考核方式?
  • 是否应教授伦理化AI使用而非全面禁止?
  • 当ChatGPT等工具模糊界限时,何种协助构成正当而非作弊?

正如一名延世学生的忏悔:「我们都知道不对,但当所有人都在做...」这记警钟或许能唤醒学术界直面科技与诚信的棘手真相。

关键点:

  • 规模惊人:可能涉及300+名学生作弊事件
  • 监控漏洞:学生利用监考系统技术缺陷
  • 政策缺失:多数韩高校缺乏明确AI使用指南
  • 文化转变:学生普遍将AI辅助作弊视为"常态"
  • 深层影响:迫使重新评估数字时代的考核体系

喜欢这篇文章?

订阅我们的 Newsletter,获取最新 AI 资讯、产品评测和项目推荐,每周精选直达邮箱。

每周精选完全免费随时退订

相关文章

清华立场鲜明:新AI规则旨在平衡技术应用与学术诚信
News

清华立场鲜明:新AI规则旨在平衡技术应用与学术诚信

清华大学公布了具有开创性的AI教育应用指导方针。该框架在拥抱AI潜力的同时,警惕过度依赖问题。教师可灵活创新地使用AI工具,但必须明确披露使用情况;学生可借助AI辅助学习,但提交机器生成作品将被视为越界行为。该政策尤其严格限制研究生科研领域,全面禁止AI辅助写作。

November 27, 2025
教育中的AI学术诚信高等教育政策
NYU教授42美分的AI口试揭露作弊漏洞
News

NYU教授42美分的AI口试揭露作弊漏洞

一位NYU教授发现,在笔试中表现出色的学生往往无法口头解释基本概念。他的解决方案?每次仅需42美分的AI口试。尽管部分学生感到压力,70%的参与者承认这种测试比传统方法更能衡量真实理解力。该实验既揭示了作弊漏洞,也展现了AI变革学术评估的潜力。

January 5, 2026
教育领域AI应用学术诚信NYU创新
中国加快推进国产AI教育模型发展
News

中国加快推进国产AI教育模型发展

中国教育部正加速发展本土教育AI系统,同时构建全面的数据基础设施。该计划旨在通过技术实现个性化学习,同时保持道德标准。官员强调将数字素养融入教师培训和学生评估,作为更广泛教育改革的一部分。

December 30, 2025
教育改革教育中的AI数字素养
News

萨尔瓦多押注争议性AI聊天机器人Grok推动教育改革

萨尔瓦多正以其大胆的教育赌注登上头条——在全国公立学校部署埃隆·马斯克备受争议的Grok聊天机器人。虽然这款AI助手承诺将为超过百万学生带来学习革命,但其过往的极端主义言论记录令人担忧。此举使这个中美洲国家站到了AI教育实验的最前沿,与爱沙尼亚和哥伦比亚一起测试课堂聊天机器人能否兑现其高科技承诺。

December 12, 2025
教育中的AI教育科技创新争议性技术
苹果AI论文遭遇波折:基准测试错误引发深夜调试狂潮
News

苹果AI论文遭遇波折:基准测试错误引发深夜调试狂潮

一篇声称小型模型在视觉推理上超越GPT-5的苹果研究论文,在北京研究员发现重大基准测试错误后受到质疑。杨磊发现官方代码中缺失图像输入,且约30%测试案例的真实标签有误。这一发现引发了紧急修正,并重新点燃了关于AI研究质量控制的讨论。

December 1, 2025
AI研究机器学习学术诚信
News

AI会议遭遇讽刺:数千篇同行评审由AI代笔

这则充满科技讽刺意味的事件中, prestigious ICLR 2026会议发现AI已渗透其同行评审流程。检测工具显示超过15,000篇评审完全由大语言模型生成,另有三分之一存在显著AI编辑痕迹。这些'机器评审'往往篇幅更长、评分更高——但频繁出现虚构引用或捏造错误。该丑闻迫使主办方出台严格新规,禁止在投稿和评审中未声明使用AI的行为。

November 28, 2025
学术诚信同行评审危机AI伦理