近日,美国一位核武器安全方面的专家在美国媒体上撰文呼吁说,虽然世界上的核武器大国都同意不能将发射核武器的指令交给人工智能,但还有一个与核武器密切相关的关键环节,也不能交到人工智能手上,那就是判断一个国家是否遭到核武器袭击的预警系统。
这位专家名叫艾琳·D.邓巴克尔(Erin D. Dumbacher),是美国斯坦顿核安全项目的高级研究员,现就职于美国对外关系委员会(CFR)。
在12月29日发表的一篇文章中,邓巴克尔先是以一个发生在苏联的事件为例,引出核武器预警系统的重要性与潜在危险性。根据她的介绍,在美苏冷战时期,1983年的一天,苏联的核武器预警系统突然误报,显示美国对苏联发动了核袭击。多亏现场的苏联军官斯坦尼斯拉夫·彼得罗夫(Stanislav Petrov)冷静判断,识别出了报警系统的误报,才避免了一场可能导致世界毁灭的核战争。
邓巴克尔指出,如今随着人工智能技术的大发展,包括其在军事上的应用,这种并不成熟且存在滥用风险的技术,正在威胁到核安全的稳定。
她表示,尽管在对核武器的使用上,世界上的核武器大国普遍同意应由人类来掌握最终决定权,但另一个可能会被人工智能影响的潜在风险点也必须被关注,那就是核武器袭击的预警系统。
邓巴克尔进一步阐述说,目前人工智能技术使得对信息、图片和视频的深度伪造变得越发容易,且更具有迷惑性。在眼下的俄乌冲突中,人工智能技术生成的深度伪造内容,已经多次在网络上引起了公共舆论的混乱——就连有权决定是否使用核武器的美国总统特朗普,也曾被一些深度伪造的信息影响,甚至自己也参与到这些信息的扩散之中。
不仅如此,技术的不成熟,还会导致人工智能频繁输出与事实不符的错误信息,甚至出现 “算法幻觉” 的情况。
由此,邓巴克尔认为,目前正在美国国防部大力推进人工智能应用的美国政府,绝不能让人工智能掌握事关核武器使用的先期预警系统。因为一旦人工智能被深度伪造的信息误导,或是产生失实的“幻觉”,即便最终是否动用核武器的决定权在人类手中,也会直接干扰人类的判断——更别提随着现代核武器的发展,比如美国的洲际弹道导弹在发射后差不多半小时就能抵达目标,留给人类作出研判的时间正被大幅压缩,恐怕只有短短几分钟。
她提议说,即便美国政府要推动人工智能技术的军事化应用,也要在涉及核武器的层面进行严格限制,包括提高信息核查门槛,将人工智能提供的信息分析打上专门的标签等等。同时要训练出更多像彼得罗夫一样的人,对机器给出的信息能始终保持警惕性。
她还认为,应该对美国总统动用核武器的权力加以限制和规范,并让美国与其他核武器国家建立起通畅的危机沟通机制。
“人工智能已具备诱导核指挥链中的关键决策者与相关人员的能力,让他们误以为遭遇了实际上并不存在的核打击,”邓巴克尔写道,“(我们)应当制定政策、落实举措,防范恶性信息的风险最终引发世界末日。”
耿直哥
上一篇:交出近年最优生产答卷
下一篇:德州“信用审批”模式跑出加速度