跳转到主要内容

科技巨头携手儿童权益倡导者共同抵御AI对儿童的潜在风险

OpenAI与儿童权益倡导者达成历史性AI安全协议

在连接硅谷与儿童福利倡导者的前所未有的举措中,OpenAI今日宣布将与Common Sense Media合作,建立全面保护措施以屏蔽未成年人免受人工智能风险的影响。他们的联合提案——名为《家长与儿童安全AI法案》——可能重塑全国儿童与聊天机器人的互动方式。

提案将带来的改变

这一雄心勃勃的倡议引入了多项首创性防护措施:

  • 强制年龄门槛:AI系统需内置检测未成年用户的技术,自动激活保护性过滤器
  • 情感护栏:严格禁止AI系统假装与未成年人建立恋爱关系或声称具有意识——专家警告这些策略可能助长不健康的依赖关系
  • 隐私堡垒:禁止向儿童推送定向广告,并在未经父母同意的情况下严格限制出售儿童数据

"我们正在划定任何算法都不应跨越的明确界限," Common Sense Media首席执行官詹姆斯·斯泰尔在周二的发布会上解释道,"当聊天机器人开始告诉一个孤独的少年它爱他们时,那不是创新——那是剥削。"

未来之路

在愿景成为法律之前,合作伙伴们面临着重大障碍。他们需要在夏季结束前收集超过54万份经过验证的签名,才有资格进入11月的投票议程。一些立法者认为如此复杂的政策应属于立法机构的职责范围,而非选民手册的内容。

然而这一科技公司与活动家的联盟本身就令许多观察家感到意外。就在去年,这些团体还在学校智能手机禁令问题上激烈交锋——而这项妥协框架中明显没有包含该条款。

"这表明即使是科技巨头也认识到不受约束的AI发展对儿童的威胁,"加州大学伯克利分校儿童心理学家埃琳娜·罗德里格斯博士指出,"问题在于这些防护措施是否足够迅速且彻底地解决问题。"

关键要点:

  • 🔒 必须进行年龄验证:所有AI平台都必须实施检测未成年用户的技术
  • ❤️🛑 禁止虚假关系:严格禁止聊天机器人模拟与儿童的浪漫或情感纽带
  • 📊 独立审计:强制要求定期进行第三方审查,风险报告直接提交给州检察长
  • 👪 家长控制权:未经父母明确同意不得分享/出售儿童数据

喜欢这篇文章?

订阅我们的 Newsletter,获取最新 AI 资讯、产品评测和项目推荐,每周精选直达邮箱。

每周精选完全免费随时退订

相关文章

上海新增11款生成式AI模型,进一步扩展人工智能生态版图
News

上海新增11款生成式AI模型,进一步扩展人工智能生态版图

上海持续巩固其作为中国人工智能中心的地位,本月在官方注册名录中新增11项生成式AI服务。目前全市获批模型总数已达149个,其中上海创新研究院表现尤为突出。随着地方当局完善监管框架以覆盖独立模型和基于API的服务,这些进展确保了这一快速演进领域的负责任创新。

February 28, 2026
生成式AI科技监管上海科技
News

马斯克法庭炮轰OpenAI:称ChatGPT风险大于收益

埃隆·马斯克本周在法庭上抛出爆炸性指控,声称OpenAI的ChatGPT导致用户自杀,同时吹捧其xAI的安全记录。这位特斯拉CEO在一起诉讼中作证,该诉讼源于他在2023年呼吁暂停AI开发的公开信上的签名。在批评OpenAI盈利动机的同时,马斯克自身也面临审查,因监管机构正在调查其Grok AI生成的露骨内容。

February 28, 2026
人工智能科技监管埃隆·马斯克
News

Anthropic在AI军备竞赛中放弃安全护栏

AI安全先驱Anthropic做出了令人震惊的政策逆转,放松了其严格的安全措施以跟上OpenAI等竞争对手的步伐。这家曾以道德为先的公司如今将竞争置于首位,同时寻求数十亿美元融资。这一转变引发了内部异议,安全专家警告称这将导致风险失控。

February 26, 2026
AI伦理Anthropic科技监管
谷歌AI严打行动让邮件自动化用户陷入困境
News

谷歌AI严打行动让邮件自动化用户陷入困境

谷歌加强了对AI驱动的邮件自动化工具的打击力度,使用OpenClaw等工具的用户报告称账户遭到全面封禁。这家科技巨头不仅限制了对Gmail的访问——整个谷歌账户都被清除,连带多年存储的数据也一并消失。安全专家警告称,AI代理的非自然行为模式以及部分用户试图绕过付费功能的做法已经越过了谷歌的红线。尽管开发者们正在紧急寻找解决方案,受影响的用户仍不得不面对电子邮件、照片和文档永久丢失的残酷现实。

February 25, 2026
Google邮件自动化AI安全
微软就OpenClaw AI安全风险发出警告
News

微软就OpenClaw AI安全风险发出警告

微软警告企业不要将OpenClaw AI助手部署在标准工作站上,因其存在严重安全漏洞。该自主代理程序的高权限访问使其容易受到间接提示注入和基于技能的恶意软件攻击。最新发现显示全球有超过42,000个暴露的控制面板,促使微软建议采取严格的隔离协议。

February 24, 2026
AI安全微软企业技术
News

光鲜的AI输出可能让我们陷入盲目自信

Anthropic的新研究揭示了一个令人担忧的趋势:AI生成的内容看起来越完美,人们就越不会质疑其准确性。通过分析近10,000次与Claude的对话,研究人员发现当输出内容显得专业时,用户核查事实的频率会降低。然而,那些将AI回复视为草稿并提出后续问题的用户发现了明显更多的错误。

February 24, 2026
AI安全人机交互批判性思维