微软应对生成式人工智能滥用的风险
微软应对生成式人工智能滥用的风险
微软发布了一份白皮书,详细描述了生成式人工智能 (AI)的恶意使用,突出显示了诸如欺诈、儿童性虐待材料、选举操控和未经同意分享私人图像等重要的社会威胁。该公司坚称,这些挑战不仅仅是技术性的问题,而是对整个社会构成了深刻的危险。

像来源说明:该图像由AI生成,由图像许可服务Midjourney提供
在报告中,微软指出,犯罪分子越来越多地利用生成式AI的能力进行有害活动。这些剥削行为包括制作AI生成的虚假信息以进行欺诈、生产儿童性剥削材料,以及使用深度伪造技术操控选举结果。此外,生成未经同意的亲密图像的趋势令人担忧,主要针对女性。微软外部事务的公司副总裁Hugh Milward强调了这些问题对人类的影响,表示:“我们决不能忘记,AI的滥用对真实的人产生深远的影响。”
白皮书特别针对英国政策制定者,提出了一个由六个核心要素组成的全面框架,旨在减轻这些威胁。建议的要素包括:
- 建立稳健的安全架构。
- 为媒体实施永久的来源和水印工具。
- 现代化法律以更好地保护公众。
- 促进行业、政府和民间社会之间的强大合作。
- 确保防止服务滥用的保护。
- 加强公众教育。 在针对英国政策制定者的具体建议中,微软提倡AI系统提供商在用户与AI生成内容互动时告知用户。此外,该公司建议开发先进的来源标记工具,以准确标记合成内容,同时呼吁政府验证其媒体输出的真实性。
微软还呼吁立法禁止通过AI工具进行的欺诈活动,强调保护选举诚信的必要性。此外,迫切需要加强法律框架,以保护儿童和女性免受在线剥削,包括将性深度伪造的创建定为刑事犯罪。
该公司强调,保留元数据以指示媒体是否由AI生成是必不可少的。像Adobe这样的公司已经在推动类似的项目,旨在帮助用户识别图像的来源。然而,微软认为,“内容凭证”等标准需要支持政策措施和加强公众意识才能有效。
此外,微软与StopNCII.org等组织合作,创建检测和移除滥用图像的工具。这些犯罪的受害者可以通过微软的集中报告门户寻求救济。对于年轻人,国家失踪和被剥削儿童中心通过其“Take It Down”服务提供额外支持。Milward重申了团结一心的重要性,表示:“AI滥用的问题可能会持续存在,因此我们需要加倍努力,与科技公司、慈善伙伴、民间社会和政府进行创造性合作,以解决这一问题。我们不能单打独斗。”
要点
- 微软发布白皮书,详细说明了生成式AI的各种恶意用途,包括欺诈和选举操控。
- 该公司向英国政策制定者提出了针对六个要素的解决方案,强调需要全面的法律和技术保护。
- 技术提供者、政府和民间社会之间的合作对有效应对AI滥用带来的挑战至关重要。

