DeepMind创始人警告:AI军备竞赛将人类置于危险境地
AI安全危机:来自DeepMind创始人的警告

图片来源说明:该图片由AI生成,图片授权服务提供商为Midjourney。
从希望到危机
作为DeepMind背后的远见者,德米斯·哈萨比斯如今发出了人们意想不到会来自AI先驱的警报。在近期震撼科技界的公开言论中,哈萨比斯承认了许多人担忧但鲜有同行愿意公开表态的事实:我们正在构建的超级智能可能导致人类灭绝。
"我们已达到传统治理措施根本无法跟上商业和技术竞争步伐的阶段,"哈萨比斯解释道。他的描述勾勒出一幅令人不安的图景:一个行业在飞速前进的同时,安全标准却被抛诸脑后。
AI防护机制的崩溃
令哈萨比斯的警告尤为引人注目的是他作为负责任AI开发坚定倡导者的历史。在DeepMind早期阶段,他曾倡导独立监督和秘密研发协议以建立技术保障措施。但2022年ChatGPT的爆炸性出现改变了一切。
"游戏规则在一夜之间改变了,"哈萨比斯指出。像谷歌这样的科技巨头发现自己不得不仓促应战,合并研究团队并将安全审查搁置一旁,展开了一场争夺AI霸主地位的全方位军备竞赛。
令人警醒的现实是?曾被视作重要制衡机制的伦理委员会和外部治理体系——面对推动行业飞速发展的市场力量——已被证明基本无能为力。
新型管控策略
面对这一新现实,哈萨比斯已转变策略。他不再依赖已失效的制度性保障措施,而是将努力集中在仍可能产生影响的地方:主要科技公司的关键决策职位。
通过保持技术权威同时推进Gemini等模型的发展,哈萨比斯希望在关键时刻管理风险。这是一种出于必要而非选择的策略——承认传统治理机制无法跟上创新步伐的现实认知。
其影响深远重大。如果连最乐观的AI先驱者之一现在都怀有如此忧虑,这对我们其他人意味着什么?正如哈萨比斯的警告所明确指出的那样:我们寻找答案的时间可能比想象中更为紧迫。
关键要点:
- 生存风险:据DeepMind创始人称,超级智能AI可能威胁人类存续
- 失效的安全措施:商业压力已使传统治理手段失去效力
- 新战略:影响关键决策点可能是我们最后的防线
- 紧迫的时间窗口:实施有效控制的机遇正在迅速消逝



