
前谷歌首席执行官埃里克·施密特、Scale AI首席执行官Alexandr Wang和AI安全中心主任Dan Hendrycks在周三发表的一份政策文件中表示,美国不应追求类似于曼哈顿计划的推动,开发具有“超人类”智能(也称为AGI)的AI系统。
这份名为“超智能战略”的文件声称,美国如果采取攻击性的方式去独占超智能AI系统,可能会引发中国的激烈报复,可能以网络攻击的形式出现,从而可能破坏国际关系。
“[A]曼哈顿计划[AGI]假设竞争对手将承受永久的失衡或全杀伤,而不是采取措施来阻止它。”合著者写道。“开始是一场超级武器和全球控制的推进,可能会引发敌对的对策和加剧紧张关系,从而破坏该战略所声称要确保的稳定。”
这篇由美国AI行业三位极具影响力的人士合著的文件,恰逢美国国会委员会几个月前提出了一个资助AGI开发的“类似曼哈顿计划”倡议,该倡议以1940年代美国的原子弹计划为模板。美国能源部部长克里斯·赖特最近表示,美国正在“启动一个新的曼哈顿计划”AI,同时与OpenAI联合创始人Greg Brockman站在一个超级计算机站点前。
超智能战略文件挑战了最近几个月来由一些美国政策和行业领袖提倡的一个观念,即政府支持的追求AGI计划是与中国竞争的最佳方式。
在施密特、Wang和Hendrycks看来,美国在某种程度上陷入了类似于相互保证毁灭的AGI僵局。正如全球大国不寻求垄断核武器一样—这可能会引发对手的先发制人打击—施密特和他的合著者认为,美国应该谨慎行事,不要急于主导极其强大的AI系统。
虽然将AI系统比作核武器听起来有些极端,但世界领导人已经认为AI是顶级军事优势。已经有消息称五角大楼表示AI正在加速军队的杀伤链。
Schmidt等人提出了一个称为相互保证AI失效(MAIM)的概念,政府可以主动禁用威胁的AI项目,而不是等待对手将AGI武器化。
Schmidt、Wang和Hendrycks建议美国将重点从“赢得超智能竞赛”转向开发阻止其他国家创建超智能AI的方法。合著者认为,政府应该“扩大其网络攻击武器库,以禁用其他国家控制的威胁性AI项目”,并限制对手获取先进AI芯片和开源模型的途径。
合著者指出了在AI政策领域中发生过的一种二元对立。有“末日论者”,他们认为AI开发可能会带来灾难性后果,主张各国减缓AI进展。另一方面,有“鸵鸟派”,他们认为各国应该加快AI的发展,基本上只是希望一切都能顺利进行。
该文件提出了第三种方式:一种注重防御策略的发展AGI的有节制方法。
这种策略尤其值得注意,因为早前施密特曾公开表示,美国需要与中国竞争开发先进的AI系统。就在几个月前,施密特发表了一篇文章称DeepSeek标志着美国与中国的AI竞赛的一个转折点。
特朗普政府似乎执意推进美国的AI发展。然而,正如合著者所指出的,美国关于AGI的决定并不孤立存在。
当世界看着美国推动AI的极限时,施密特和他的合著者建议采取一种更具防守性的方法可能更明智。