Meta自动化90%风险评估引担忧
作为Facebook、Instagram、WhatsApp和Threads的母公司,Meta正在对其潜在风险评估方式进行重大改革。这家科技巨头近日宣布计划使用人工智能自动化高达90%的内部安全与隐私审查。
根据美国国家公共电台获取的内部文件,这一变化意味着原先需要专业人工团队处理的大部分评估工作将由AI系统接管。这些评估涵盖关键领域,包括用户隐私影响、对未成年人的潜在危害以及虚假信息传播。

在新系统下,产品团队需填写关于拟议更新的详细问卷。AI将即时分析这些提交内容,识别潜在风险并设定项目批准条件。仅在某些特定情况下才需要人工审查——当项目引入新风险时,或团队明确要求人工介入时。
功能加速vs潜在风险
此举有望加速Meta平台的功能发布速度。但专家质疑算法能否在复杂的风险评估场景中充分替代人类判断,因而招致批评。“这实质上意味着更多产品将以更少的监管审查更快上线,”一位要求匿名的Meta前高管表示,“这不可避免地会增加风险。”
Meta坚称此次变革旨在“简化决策流程”,同时保留对新颖或复杂问题的人工监督。公司声明强调只有“低风险决策”会被自动化。然而内部文件显示,即便是AI安全和青少年保护等敏感领域也将接受自动化评估。
监管考量
该举措的时机引发重要疑问。自2012年起,Meta一直遵守与美国联邦贸易委员会达成的协议,要求对产品更新进行隐私审查。公司声称已在隐私项目上投入超过80亿美元,并持续优化流程。
由于《数字服务法案》的严格规定,欧洲用户可能会面临不同标准。内部通讯表明涉及欧盟产品的决策仍将由Meta爱尔兰总部管理,而非完全自动化系统。
这种自动化会否导致风险被忽视?部分现任及前任员工担心AI可能遗漏人类审核员能发现的微妙但重要的问题。一位前员工指出:“这些审查往往能发现公司应更严肃对待的问题。”
随着Meta推进其AI驱动策略,科技界正密切关注:这场自动化豪赌会以更快创新获得回报?还是可能因未预见的后果而适得其反?
关键要点
- Meta正将原先由人工团队处理的90%风险评估工作自动化
- AI系统将评估隐私影响、青少年安全和虚假信息风险
- 专家警告减少人工监督可能增加平台风险
- 因法规更严格,欧洲用户或保留更多人工程序
- 此举无视Meta当前仍需遵守的美国联邦贸易委员会隐私协议要求

