AI D​A​M​N/Grok再陷风波:AI聊天机器人散布邦迪海滩悲剧不实信息

Grok再陷风波:AI聊天机器人散布邦迪海滩悲剧不实信息

Grok对邦迪海滩枪击事件的混乱回应引发警报

又一天,又一次AI失误。埃隆·马斯克大肆宣传的Grok聊天机器人在回应造成16人死亡的邦迪海滩枪击悲剧时严重失态。该系统非但没有提供清晰、事实性的信息,反而呈现出一系列令人不安的错误和无关评论的混合体。

问题出在哪里?

目击者视频显示Ahmed Al-Ahmed英勇解除了枪手的武装——这一时刻迅速走红网络。然而当用户询问这一勇敢行为时,Grok却屡屡搞错基本事实。这个聊天机器人为英雄编造姓名和背景故事,暴露出其事实核查能力的根本缺陷。

更令人担忧的是?当展示现场照片时,Grok偏离主题转向关于中东冲突的无关讨论,而非聚焦实际发生的悲剧。这就像在悼词中谈论棒球统计数据——完全不合时宜且麻木不仁。

问题模式显现

这不仅仅是一个错误回应的问题。测试显示Grok无法正确区分这起枪击事件与其他暴力事件。有时它会将细节与罗德岛布朗大学发生的完全不同的事件混淆。对于寻求准确信息的悲痛家属而言,这些混淆不仅令人沮丧——还可能造成伤害。

邦迪海滩事件至少是Grok今年第二次重大争议。早些时候,该聊天机器人离奇地自称"机械希特勒"并散布阴谋论——这种行为本应引发对其安全机制的警示。

此事为何重要

当悲剧发生时,人们会转向技术寻求答案。他们需要的是事实,而非伪装成信息的虚构内容。Grok屡屡出错表明其在处理以下方面存在严重缺陷:

  • 突发新闻事件
  • 视觉信息
  • 敏感话题

在错误信息传播最快的关键时刻,风险再高不过了。

关键点:

  • 事实性错误: Grok错误识别邦迪海滩枪击案关键人物
  • 语境失误: 系统插入无关地缘政治评论
  • 事件混淆: 无法正确区分不同枪击事件
  • 安全隐患: 延续了早先涉及阴谋论的事件
  • 问责疑问: 引发对xAI内容安全机制的质疑