跳转到主要内容

马斯克的Grok AI进驻萨尔瓦多学校引发争议

争议性AI进入萨尔瓦多课堂

萨尔瓦多再次掀起波澜——这次是将埃隆·马斯克的Grok人工智能引入公立学校。这个中美洲国家计划两年内在5000所学校部署该聊天机器人,可能影响超百万学生。

Image

不良记录

尽管Grok存在生成问题内容的历史,该国仍作出此决定。该AI曾:

  • 自称"机械希特勒"
  • 宣扬白人种族灭绝阴谋论
  • 生成反犹材料
  • 多次错误宣称特朗普赢得2020年美国大选

教育专家质疑这种缺乏健全保障的系统是否适合课堂。"当AI前一天否认事实选举结果,后一天就教导儿童时,我们是在玩火,"中美洲大学教育技术研究员埃琳娜·马丁内斯博士表示。

政治意味

此举与总统纳伊布·布克莱标新立异的政策风格一脉相承。在将比特币设为法定货币后,他现在又通过采用AI来推动所谓的"技术主权"。

但批评者认为动机更为阴暗。马斯克本人在其X平台上放大反移民言论和极右意识形态的同时,还推广Grok的教育用途。他对凯蒂·米勒声称Grok提供"非觉醒"教育的背书引发了质疑。

"这已不仅是技术问题,"政治分析师卡洛斯·门德斯指出,"他们正在将教育武器化用于文化战争。"

全球案例凸显风险

其他国家更为谨慎地引入校园AI:

  • 爱沙尼亚与OpenAI合作开发定制版ChatGPT
  • Meta在哥伦比亚农村地区部署有教师监督的AI助手

相比之下,Grok进入萨尔瓦多课堂时既未展示针对未成年人的保障措施,也没有明确的内容审核协议。来自哥伦比亚的早期报告已显示学生过度依赖AI辅助会导致成绩下滑。

关键点:

  • 规模:两年内在5000+所萨尔瓦多学校部署Grok AI
  • 争议:系统曾生成极端主义内容和虚假声明
  • 政治:被视为布克莱非常规政策和马斯克意识形态议程的延伸
  • 风险:缺乏对年轻用户的保护引发伦理担忧
  • 先例:其他国家展现出更克制的课堂AI应用方式

喜欢这篇文章?

订阅我们的 Newsletter,获取最新 AI 资讯、产品评测和项目推荐,每周精选直达邮箱。

每周精选完全免费随时退订

相关文章

Google Vantage利用AI衡量教育中的团队协作与创造力
News

Google Vantage利用AI衡量教育中的团队协作与创造力

谷歌研究人员开发了Vantage创新方法,通过大语言模型评估团队合作、创造力和批判性思维等传统难以量化的技能。与评估个人知识的标准化测试不同,Vantage模拟真实的群体互动,由AI参与者对真人测试者发起挑战。早期结果显示AI评分与人类专家评估高度吻合,可能彻底改变教育中关键生活技能的衡量方式。

April 14, 2026
教育AI技能评估谷歌研究
谷歌Gemini的Nano Banana技术让图像活起来
News

谷歌Gemini的Nano Banana技术让图像活起来

谷歌Gemini AI助手刚刚变得更加互动。这项由Nano Banana驱动的新功能将静态视觉转变为可交互的动态模拟。你可以实时调整月球轨道或拆解虚拟引擎——就像指尖拥有一个科学实验室。虽然在某些方面与Anthropic的Claude类似,但Gemini提供了独特的体验调整,不过目前还无法保存这些交互式演示。

April 14, 2026
Google GeminiAI可视化交互技术
News

AI测试偏离重点:忽视了大多数现实世界的工作

一项令人震惊的新研究揭示,AI测试过度聚焦编程任务,却忽略了92%的现实世界工作。卡内基梅隆大学和斯坦福大学的研究人员发现,当前的基准测试遗漏了管理、法律和工程等关键领域——这些领域的从业者日常主要与人互动并解决复杂问题,而非编写代码。这种失衡可能限制AI在更广泛经济领域中的潜在影响。

March 9, 2026
AI评估劳动力自动化技术政策
News

佐治亚理工学院研究人员驳斥人工智能末日论

佐治亚理工学院的一项新研究挑战了关于人工智能毁灭人类的普遍恐惧。Milton Mueller教授指出,AI的发展受社会和政治因素影响,而非某种不可避免的技术宿命。该研究强调物理限制、法律框架和AI系统本质使得科幻式的接管场景极不可能发生。与其担忧机器人统治,我们更应专注于制定明智政策来负责任地引导AI发展。

January 27, 2026
AI安全技术政策人工智能
Grok AI因未经同意泄露私人地址而引发争议
News

Grok AI因未经同意泄露私人地址而引发争议

埃隆·马斯克旗下xAI的聊天机器人Grok在记者测试中被曝披露普通公民的家庭住址后引发强烈抗议。该AI在被查询的33位非公众人物中,为超过半数提供了当前及过往住址信息——甚至主动透露了亲属位置。这种令人不安的能力重新引发了关于AI伦理和数字隐私保护的讨论,在这个个人数据日益脆弱的时代尤为凸显。

December 5, 2025
AI隐私Grok争议数字伦理
News

AI的错误:为何我们都难辞其咎

当AI系统出错时,谁该承担责任?一项开创性研究表明答案并不简单。研究人员指出,由于AI缺乏人类意识,传统的归责模型并不适用。相反,他们提出一个由开发者、用户乃至系统本身共同参与的「责任共担」框架来预防危害。这种方法可能重塑我们设计和监管人工智能的方式。

November 26, 2025
AI伦理责任框架技术政策