当前位置: 主页 > 技术方案

末日人工智能-人工智能到2040年有可能颠覆核威慑战略的基础

发布时间:2023-06-17 11:19   浏览次数:次   作者:佚名

来源中国军网

2018年4月24日,兰德公司在新发布的《人工智能对核战争风险的影响》报告中宣称,人工智能到2040年有可能颠覆核威慑战略的基础。

人工语音智能计算器_末日人工智能_亚马逊智能仓库 人工

该研究认为,虽然人工智能不可能创造“末日机器”,但人工智能对核安全的危害在于它鼓励人类去冒险。

现如今,随着人工智能技术的深度发展和飞速跨越,越来越多的领域开始被定义或是被重构。由核威慑维系的“恐怖平衡”自然也不例外。作为悬在世界各国头上的“达摩克利斯之剑”,核武器的降生绝非一无是处,尤其是各军事大国之间的核威慑的力量均势在某种程度上而言,有效遏制了大规模世界战争的爆发。

人工语音智能计算器_亚马逊智能仓库 人工_末日人工智能

不过眼下,这种均衡或将随着人工智能的演变迭代而逐渐被打破。原先核大国倚仗核军备和核战争威胁,迫使敌方因面临可能导致无法承受的报复而不敢贸然发动战争借以实现本国的战略目标的“威慑”战略,以核报复力量为后盾,以可能采取敌对行动一方的大城市中心或军事基地为攻击目标进行恫吓,从而可以仅仅只承担最小的战争风险,收获最大的威慑效果。

在这个时期,斗争双方都处于这种微妙的和平状态。他们必须让对手相信,光靠先发制人绝对打不赢核战争。这就需要不断制造比对方更多的核弹,以确保自己在遭受核弹攻击时仍有反击的余地。双方都拥有大量的核子武器,存放在不同的地点。一旦直接冲突,可能导致全人类毁灭,因此双方都尽力避免发生全面的“热战”。

亚马逊智能仓库 人工_末日人工智能_人工语音智能计算器

时至今日,双方的庞大的核武库仍旧存在,不管其有效性如何,对彼此乃至全人类都是巨大的威胁。

现今,随着国际关系中波谲云诡的变化日益增多,地缘政治博弈往往建立在一个由多国介入的不确定、不稳定前提上,战略家们在对冲突进行评估,明确可以采取的方案和可能产生的后果的过程中,将更多依赖于人工智能的分析和决策。而在目前的大多数情况下,人工智能往往可能比人类更容易出错。诸如在对较为复杂的冲突局势进行预判或者分析的过程中,当敌方尝试干扰或欺骗人工智能系统时,人工智能将会得出错误的结论,甚至发出错误的指令。这不仅导致未来由人工智能主导的国际关系分析将会出现更多的不确定性和极端性,致使“让机器帮助世界避免核战争”的美好愿景落空,同时也将导致核威慑构建的相对平衡失去调控。

人工语音智能计算器_末日人工智能_亚马逊智能仓库 人工

再加上,在如今的大数据环境下,原本具有不确定性、不透明性的国家意志与战略考量等主观因素,将能够通过人工智能,在深度学习算法中以量化的形式加以展示。国与国之间的核试探、威慑乃至最后的抉择都将被人工智能在充足的数据分析后“再定义”。拥有人工智能技术的一方将具有清晰评估对方进行核反击的可能性及破坏性的能力,从而拥有更加灵活有效的战略选项。而技术相对落后的一方,其核反击能力在数据的佐证中将变得不再具有可信性。行为体之间的军事力量差距将因为人工智能技术水平的提高而逐渐明晰,传统的“相互威慑”的国际安全体系将变得不再稳定。

此外,随着各型传感器的数量在世界范围内不断增加,人工智能根据不同来源的信息进行分析、预判的能力不断增强,处于信息劣势的一方将可能会对本国核导弹和核潜艇是否更容易遭受精准打击而深感担忧。而处于信息优势一方则往往更注重寻求削弱敌方“第一次打击”的能力,这无疑将大大增加意外核战争的可能性。

亚马逊智能仓库 人工_人工语音智能计算器_末日人工智能

总的来说末日人工智能,人工智能对军事领域的改变是全方位的,从军事武器到战略设计、从全球军事力量平衡到军事伦理,都将不可避免地受到冲击。在这场冲击中,优势方将具有全面超越传统军事力量的能力末日人工智能,使对方原本有效的威慑原则和伤害手段失效。新的不平衡状态可能会使“意外核战争”模式重新抬头。在并不遥远的将来,在“AI+核战争”快速发展的明天,全球安全体系和伦理基础都将面临严峻的考验。

人工语音智能计算器_亚马逊智能仓库 人工_末日人工智能