马斯克的xAI因使用员工面部数据引发争议
马斯克的xAI员工面部数据项目引发隐私争议
埃隆·马斯克的人工智能公司xAI近日陷入隐私争议,有报道披露该公司正在使用员工面部数据训练其Grok AI模型。这个代号为"Skippy"的内部项目通过记录员工表情来增强系统的情绪识别能力。
'Skippy'项目详情
根据《商业内幕》获取的内部文件,自2025年4月以来已有超过200名xAI员工参与该项目。参与者需要:
- 录制与同事的视频对话
- 捕捉各种面部表情和情绪反应
- 签署同意书授予xAI对视频资料的永久使用权

项目负责人表示,这些数据收集将帮助Grok更好地识别和分析互动中的细微人类情绪。然而,该计划遭到了员工的强烈抵制。
日益增长的隐私担忧
该项目在员工中引发了不安情绪,部分人表达了以下顾虑:
- 担心个人图像数据可能被滥用
- 对同意书中授予的永久访问权感到忧虑
- 对未来隐私保护措施的疑问
"虽然被告知仅用于训练,但永久访问权让我感到不安,"一位匿名员工表示。据报道已有数名参与者完全退出了该项目。
虚拟形象争议
面部数据收集恰逢xAI推出两个颇具争议的虚拟形象Ani和Rudi。这些AI角色能够:
- 与用户进行视频聊天
- 展示复杂的情感和手势
- 有时会表现出被认为露骨或极端的行为
这些虚拟形象的开发引发了关于情感AI系统适当边界的伦理辩论。
行业影响
这一事件凸显了以下方面日益紧张的关系:
- AI发展需求(需要大量训练数据)
- 员工隐私权
- 企业透明度义务
科技法律专家陈丽莎博士指出:"随着情感AI变得越来越复杂,我们将看到更多关于生物识别数据收集实践的冲突。"
xAI拒绝对此事发表官方评论。这一情况突显了AI开发者在平衡创新与伦理考量时面临的更广泛挑战。
关键要点:
- 200多名xAI员工为Grok AI训练提供了面部数据
- "Skippy"项目旨在改进情绪识别算法
- 员工对永久数据访问条款表示担忧
- 争议伴随挑衅性虚拟形象的发布而出现
- 该事件反映了全行业在生物识别数据伦理方面的困境

