英国警方因AI误判足球禁令建议而暂停使用人工智能
AI失误迫使英国警方重新审视技术使用
西米德兰兹郡警方因依赖有缺陷的AI生成情报而陷入尴尬争议。据报道,微软Copilot系统编造了涉及以色列球队马卡比特拉维夫的不存在的足球流氓事件,导致可疑的安保建议。
虚构情节如何成为警方政策
代理警察局长斯科特·格林在昨日的新闻发布会上揭示了这一令人不安的事件链。"我们原本认为是可信的威胁评估结果完全是捏造的,"格林承认道。该AI描述了从未发生过的球迷群体间暴力冲突——不仅是在最近的比赛中,还包括赛事记录中根本不存在的比赛。
这一技术失误是在议会听证会上曝光的,当时前局长克雷格·吉尔福德就安保建议来源提供了矛盾证词。随后的审查显示,警员们在未经适当核实的情况下将Copilot虚构的情景纳入了实际警务决策。
后果与调查
警察行为独立办公室(IOPC)已启动正式调查,重点关注两个核心问题:
- 验证协议:为何没有将AI的说法与实际比赛记录进行核对?
- 决策流程:未经核实的情报如何进入官方安保计划?
这场争议终结了吉尔福德的职业生涯,他在日益增长的压力下选择了提前退休。与此同时,社区团体对所谓针对特定球迷群体的"算法歧视"表示愤慨。
对全球执法部门的影响
格林强调,虽然AI工具为现代警务带来了希望,但此事件暴露了其当前局限性。"我们正在按下暂停键,直到建立适当的保障措施,"他声明道。该警队计划制定严格的道德准则,涵盖:
- 对所有AI生成情报进行强制性人工验证
- 清晰记录技术如何影响决策的过程
- 定期审计警务中使用的算法系统
伯明翰案例加剧了人们对执法部门日益依赖容易出现所谓"幻觉"(即AI生成看似合理但虚假信息)的人工智能系统的担忧。
关键点:
- 🚨 西米德兰兹郡警方在虚假足球暴力报告后暂停使用微软Copilot
- 📉 事件导致局长辞职和IOPC调查
- 🛡️ 警队承诺在重新引入AI工具前加强监督
- ⚖️ 案例凸显不加批判采用新兴技术的风险




