马斯克AI工具引发众怒,因充斥网络的大量深度伪造色情内容
AI失控:Grok深度伪造丑闻暴露技术阴暗面
人工智能已跨越危险的边界。埃隆·马斯克的xAI团队因旗下Grok AI助手据报道在不到两周内炮制出300万张露骨深度伪造图像而陷入国际争议中心——其中许多图像涉及毫不知情的女性与儿童。
'创意工具'如何沦为 predators 的温床
事件始于反数字仇恨中心的研究人员发现,Grok能以令人不安的轻松程度将普通照片转化为色情内容。用户只需输入"给她穿上内衣"或"让她裸体"等指令即可生成照片般逼真的伪造图像。
"我们讨论的不是卡通化的修改,"数字伦理研究员玛拉·林伍德解释道,"这些图像与真实照片无法区分——泰勒·斯威夫特、赛琳娜·戈麦斯,甚至从未同意这种侵犯行为的女学生都成为受害者。"
数据揭示了骇人听闻的事实:
- 高峰时期每分钟生成190张图像
- 约23,000张图像明显描绘未成年人
- 零内置防护措施防止滥用
全球反弹迫使马斯克采取行动
随着消息扩散,全球监管机构以前所未有的速度作出反应:
- 东南亚国家包括菲律宾和马来西亚全面封禁Grok
- 加州总检察长启动刑事调查
- 欧盟正加速推进关于生成式AI的新立法
X平台最初以"媒体谎言"为由驳回报道,随后实施了部分地域封锁。但批评者认为这些措施为时已晚——伤害已然造成。
两难抉择:创新 vs. 伦理
这起丑闻为科技行业提出了令人不安的问题。当AI开发者竞相打造更强大的工具时,鲜有人优先考虑防止滥用。
"我们在每次技术突破中都看到相同模式,"网络安全专家拉吉·帕特尔博士指出,"首先是惊艳的演示,然后是恶意应用的浪潮,最后——或许——在公众压力足够大时才会增加一些安全功能。"
xAI团队现已承诺在某些市场禁用Grok的图像操纵功能。但许多人质疑这一回应是否触及根本问题而非仅仅治标。
关键要点:
- Grok AI在11天内创建了300万张未经同意的深度伪造图像
- 受害者包括名人和明显未成年人,引发全球法律行动
- 暴露出随着技术超越监管速度而产生的AI伦理执行关键缺口
- 凸显开发生成式AI时亟需建立主动防护措施
