关于这两个场景,该报告都从正反两面论证了AI可能在核战争中起到的作用:倘若将AI应用至追踪/定位导弹上,将会大大提高所在国对假想敌攻击的监测精度,信息的愈加透明化,可能会增进双方的战略互信,从而降低爆发核战争的可能性;然而,一旦AI的导弹追踪/定位功能出现了纰漏,核战争被引发的概率将会大大提升。 [本文来自:www.ii77.com]
当前,人工智能已经成为了一股不可阻遏的科技潮流,它正在与生活的方方面面以及各个学科领域生发着奇妙的化学反应,“AI+”注定将是接下来几年中被提及的最频繁的词组之一。在人工智能的时代,它的触角将不可避免地最终伸向军事领域的最敏感地带——核武器。这两者的结合可能会给人类带来什么样的后果呢? [原文来自:www.ii77.com]
最近,美国著名智库兰德公司(RAND Corporation)发布了一篇题为“人工智能将如何影响核战争”的研究报告,就专门论述了“AI+核武器”的问题。
在这一报告中,作者摒弃了常见的那种“AI使用核武器毁灭人类和世界”的好莱坞式的耸人听闻的预测,而是先详细介绍了自冷战延续至今的有关核武器的共同毁灭机制( Mutual Assured Destruction,指对立双方中如果有一方率先使用核武器,则另一方则会立即发送核反击,最终导致冲突升级,两方都会被毁灭)的缘起和发展情况,并进而将目光投向了更为务实的AI应用场景:追踪/定位导弹;辅助决策是否使用核武器。
关于这两个场景,该报告都从正反两面论证了AI可能在核战争中起到的作用:倘若将AI应用至追踪/定位导弹上,将会大大提高所在国对假想敌攻击的监测精度,信息的愈加透明化,可能会增进双方的战略互信,从而降低爆发核战争的可能性;然而,一旦AI的导弹追踪/定位功能出现了纰漏,核战争被引发的概率将会大大提升。
同理,AI决策辅助对核战争也有着双向的影响。
换言之,建立在 M.A.D.机制上的脆弱的核平衡,将会因为AI的介入和使用而大概率地增加了许多不稳定的因素。他们接着在分析的基础上指出,“日益多极化的战略环境中,人工智能在2040年之前极有可能导致核武器平衡局面的打破以及当前核威慑手段的失效”。
最终,作者亮明宗旨,即试图弄清楚AI与核战争之间的关联,并确保规避AI的负面影响,最大限度发挥其积极作用。
其实,兰德公司在这里分析、预测的事情并不新鲜。在计算机的发展史上,由技术引发的安全隐患一直都存在——特别是当它与危险的核武器联系在一起时。