DeepMind创始人警告:人工智能军备竞赛将人类置于危险境地
人工智能先驱对无节制发展发出严厉警告

图片来源说明:该图片由AI生成,图片授权服务提供商为Midjourney。
DeepMind创始人Demis Hassabis就人工智能的生存风险发出了令人不寒而栗的警示。这位英国计算机科学家坦率承认了许多人担忧但少有行业领袖愿意公开表态的事实——超级智能系统可能导致人类灭绝。
安全网已失效
曾是最乐观的人工智能布道者的Hassabis,如今描绘了一幅行业危机的严峻图景。"我们已经到了一个传统治理机制完全跟不上发展的阶段,"他解释道。2022年ChatGPT的发布引发了他所谓的"技术淘金热",企业纷纷放弃谨慎开发转而追求极速发展。
这位数学家出身的CEO描述了自己无助地看着安全协议在企业竞争中沦为附带损害的过程。谷歌合并了研究团队,监督委员会失去影响力,被Hassabis称为"系统性防线"的安全机制在商业压力下崩溃。
从乐观到损害控制
Hassabis的心路历程反映了整个人工智能社区的反思。这位曾经相信通过共识建立道德护栏的人,现在专注于在关键决策点施加个人影响力。他一方面竞相开发Gemini等先进模型,同时努力控制这些模型的风险。
"当系统变得如此强大时,"Hassabis明显担忧地指出,"每个决定都承载着生存层面的重量。"他目前的策略是深入关键技术节点——试图从内部引导发展而非通过已被证明无效的外部监督机制。
关键要点:
- 生存威胁:如果缺乏适当保障措施就开发超级智能AI系统,可能危及人类生存
- 失效的保障:伦理委员会和治理结构正被商业竞争所超越
- 新方法:Hassabis现在专注于从关键技术岗位内部影响发展方向
- 行业危机:ChatGPT革命引发了人工智能发展的失控军备竞赛
- 个人使命:DeepMind创始人视自己为维持对危险技术一定控制权的斗士





