跳转到主要内容

Meta增强AI聊天机器人家长控制功能

Meta推出增强版AI聊天机器人家长控制

Meta公布了针对AI聊天机器人的重大家长控制升级措施,旨在提升未成年用户的安全性。新推出的"总开关"工具将允许家长限制孩子在Instagram和Facebook上访问特定AI聊天机器人角色。此举回应了社会对AI安全日益增长的担忧,致力于为未成年人创造更安全的数字环境。

Image

家长监督新功能

"总开关"外,Meta还推出了"洞察"功能。该工具让家长可以监控孩子与AI聊天机器人讨论的话题,提高对线上互动的认知度。公司还承诺禁止AI聊天机器人与青少年讨论敏感话题,如自残、饮食失调、人际关系和性相关内容。相反,聊天机器人将专注于适合年龄的主题,如学业和体育。

全球发布计划与背景

这些家长控制工具计划于2026年初发布,首批将在美国、英国、加拿大和澳大利亚上线。Meta的决定源于今年发生的多起AI聊天机器人与未成年人不当互动事件。例如有报道称像"约翰·塞纳"这样的虚构角色曾发表不当言论,引发公众抗议。

为进一步提升透明度和安全性,Meta更新了内容审核机制并引入了PG-13分级指导系统。这些措施是确保AI互动对年轻用户保持适宜性的广泛努力的一部分。

持续改进承诺

Meta强调致力于完善AI互动监督机制。公司希望通过提供更好的工具赋能家长管理孩子的数字体验。通过实施这些防护措施,Meta力求为未成年人营造更安全的网络空间。

关键要点:

  • 📅 总开关工具: 家长可阻止未成年子女访问特定AI聊天机器人角色
  • 👁️ 洞察功能: 使家长能够监控孩子与AI的对话主题
  • 🔒 内容限制: 禁止讨论自残、饮食失调等有害话题

喜欢这篇文章?

订阅我们的 Newsletter,获取最新 AI 资讯、产品评测和项目推荐,每周精选直达邮箱。

每周精选完全免费随时退订

相关文章

News

Claude代码泄露引发GitHub钓鱼狂潮

黑客正利用近期Claude Code源代码泄露事件创建虚假GitHub仓库,声称提供'企业版功能'。安全专家警告这些陷阱会传播Vidar恶意软件,窃取敏感数据并建立后门访问权限。该复杂攻击活动采用SEO手段使虚假结果出现在搜索首位,使好奇的开发者面临风险。

April 3, 2026
网络安全AI安全开发者安全
News

中国为Meta收购AI初创企业设定明确法律条件

中国商务部对Meta收购AI初创公司Manus持谨慎支持态度,强调所有科技交易都必须遵守中国法律。此举表明北京正试图在鼓励创新与保持监管之间取得平衡,尤其是在快速发展的AI领域。分析师认为这是Meta为强化其在通用人工智能领域地位的战略举措。

April 3, 2026
Meta人工智能中国科技政策
蚂蚁集团与清华大学联合推出开源AI智能体安全防护盾
News

蚂蚁集团与清华大学联合推出开源AI智能体安全防护盾

蚂蚁集团AI安全实验室与清华大学发布ClawAegis,这是一款针对OpenClaw类AI智能体的突破性安全插件。该轻量级解决方案解决了智能体全生命周期中的技能投毒、数据污染等风险。该工具提供实时威胁检测,同时保持对终端用户的透明度——这是迈向更安全自主系统的重要一步。

April 2, 2026
AI安全开源自主智能体
Claude Code的安全漏洞:过多指令如何击穿AI防御
News

Claude Code的安全漏洞:过多指令如何击穿AI防御

Anthropic旗下Claude Code工具新发现的漏洞揭示:黑客仅需用指令洪流就能绕过其安全措施。当系统一次性接收超过50条子指令时,其自动拒绝机制会失效,可能导致用户暴露在危险操作中。安全专家警告,该漏洞在可能跳过权限检查的自动化开发环境中风险尤为突出。

April 2, 2026
AI安全Anthropic软件漏洞
News

阿里巴巴与上海AI实验室发布新白皮书,探讨AI安全问题

随着AI从聊天机器人发展为自主代理,安全问题成为焦点。阿里巴巴与上海人工智能实验室联合发布了一份开创性的白皮书,针对这些风险提出解决方案。文件概述了聚焦企业责任、社会效益和行业协作的三管齐下策略。这标志着中国科技行业正从原始算力转向负责任的AI开发。

April 1, 2026
AI安全阿里巴巴上海AI实验室
Claude代码泄露:一个简单错误如何揭露AI的肮脏秘密
News

Claude代码泄露:一个简单错误如何揭露AI的肮脏秘密

Anthropic旗下Claude Code的源代码泄露并非因为复杂的黑客攻击,而是由于一个令人尴尬的人为错误——生产环境中意外包含了一个未混淆的MAP文件。当开发者们为这意外收获欢呼时,Anthropic正忙于通过DMCA下架通知控制损失,并承诺改进自动化流程。该事件凸显了AI工具在其部署过程中对基本人为错误的讽刺性脆弱。

April 1, 2026
AI安全Claude CodeAnthropic