在前不久举行的“第九届北京香山论坛”上,一场以“人工智能与未来战争”为主题的分组研讨会,吸引了大批中外军人、学者和科学家参与。
两个月后,美国国防部宣布成立“联合人工智能中心”,协调各部门、研发中心和企业,提高相关产品交付国防部的能力,以便在可能的情况下由国防部进行“实地测试”,将“武器化军事化”的人工智能“部署在一系列密切相关的、紧迫的综合挑战领域”。
又过了两个月,即2018年8月,美国国会批准通过的《2019财年国防授权法案草案》中,除批准高达7160亿美元的军费开支外,还明确了美军陆海空等部门的多领域人工智能研发项目,额外资助金额数十亿美元;9月,美国国防部高级研究计划局宣布,将在未来五年内投入20亿美元用于人工智能武器研究,推出“更可靠、更能让军事指挥官接受的人工智能军事应用系统”;11月,美国设立“人工智能国家安全委员会”,肩负“审视人工智能技术在军事应用中的风险及对国际法的影响、审视人工智能技术在国家安全及国防领域运用中的伦理道德问题,以及制定公开测试数据标准并推动数据共享”三大任务。
第二,对“受侵犯”的主权国来说,又如何采取恰当而有效的方式来捍卫自己的国家利益呢?如果受侵犯主权国认定遭“核无人飞行器”入侵,应该立即进行“核反攻”吗?还是用常规方式处理“入侵事件”呢?这其中的标准是什么、手段又如何?很显然,这些都是战略无人飞行器研发国仍未认真“研发”的领域。
第一,这种无人飞行器一旦进入他国领空,究竟“属于传统意义上的侵犯领空,还是可视为对他国发动的核战行为?”如果是“核战行为”,也有“双重”含义,即:“发动核打击”或造成“核污染灾难”,而后者(如飞行器失事)的后果界定,更为复杂、更易引发争议;
其次,就个别人工智能武器化的发展趋势来看,引发战争、甚至引发核战争的潜在风险,是客观存在的事实。然而,几乎没有哪个国家愿意正视这个事实,更没有哪个国家愿意带头主动修改未来核战规则。
首先,用于军事领域的人工智能发展现状及潜在风险问题。近些年,人工智能技术发展非常迅速,其在军事领域内的技术研发,早已成为主要军事大国最优先发展、投入的领域。
最后,几乎无人否定,人工智能武器系统是决定未来战争胜负的重要因素之一。尽管它仍属于“高智能机器”,但就“杀人和毁灭”这两点来说,与传统战争中行使战争动作的人,似乎没有明显的行为区别。特别是当一场战争不是以“军事占领”或“实际占有被侵略国家土地及自然资源”为主要目的时,人工智能武器自身的战争行为如何界定?而所有这些武器背后的人,其战争行为又是否应有新的“定义”?战争伦理、战争责任、战争罪行、战争法庭、战争赔偿及战后重建等一系列问题,又是否应该重新研究和定义呢?
以美国为例。近几年美国国防部发表的《国防战略》始终坚持认为,先进的计算机程序、大数据分析、自主性智能机器人、精准遥控与远程攻击、无人飞行器和无人潜水器等新科技新技术的发展“将是影响美国安全环境的关键因素”。
美国等国家研发的远程、可携带核弹头战略无人飞行器,早已到了可以实际应用的地步。在这次研讨会上,美国东西方研究所高级研究员司乐如(Lora L. Saalman)在发言时,提出了一系列值得关注的问题。她表示,可携带核弹头战略无人飞行器的运用,带来两个十分紧迫问题:
在大数据分析方面,美军也早已开始使用人工智能逻辑计算法,分析整理目标极端组织的大量情报数据,为美军展开打击行动提供可靠情报支持。
笔者认为,如果一国携带核弹飞行器进入主权国领空,无论携带工具种类是什么,只要武器部是核弹头,都可以视为是“核侵犯”。当然,这需要认真甄别究竟是有意侵入、还是无意冒犯,弄清背后战略意图对如何反应最为关键。如果这种定义成立的话,显然,核武拥有国修订核战原则、以及修订《核不扩散条约》,就具有非常紧迫性了。
由于各国都希望成为未来战争的“战场终结者”,因此不仅对自身研发的人工智能技术严加保密,而且把技朮上、战略上“先发制人”作为研发军事化人工智能武器的基本原则,各国很难就人工智能的技术、作用与风险问题,展开平等和坦诚地交流,更不用说及早就防范由此引发的战争危机展开多边谈判、制定规则了。
(作者是凤凰卫视资深时事评论员、美国布鲁金斯学会访问学者)
这倒不是因为在研讨会上有什么重大科技成果宣布,也不是向在场人士展示任何与军事相关的新型智能装备,而是大家对当前在军事领域人工智能技术的快速发展与广泛应用,存在着普遍担忧:已经用于实战的人工智能型武器装备,是否将大大增加未来爆发战争的风险?以无人机携带核武器进入他国领空,是否意味着“核攻击”?远程遥控指挥一场战役的“战争行为”,法律又如何给予界定并追究战争责任?
2019年2月中,美国国防部公布了《2018年国防部人工智能战略摘要——利用人工智能推动我们的安全与繁荣》(Summery of The 2018 Department of Defense Artificial Intelligence Strategy—Harnessing AI to Advance Our Security and Prosperity),指出“为遏制战争并在遏制无效后最终赢得战争,美国必须坚持走在技术研发的最前沿,以此来确保恒久的军事优势,而人工智能正是这样的一种前沿技术。因此,美国国防部必须与盟友及伙伴一起,通过采用人工智能、维持战略地位、打赢未来战争及维护国际秩序,以推动人工智能以长期、和平稳定的方式得以开发和利用。”
显然,未来战争的“人-机混合”作战体系,为战争带来的理论困惑、法律困惑和行为困惑,几乎难以避免。
2018年4月,美国国防部开始制定名叫《国防部人工智能战略》的计划,希望借此敦促政府加大对人工智能技术和关键应用能力的投入与开发,也特别期待私营企业把成熟的人工智能技术专利或产品卖给国防部,加快转化相关技术成果以提高美军实战能力。
有与会专家表示,美国当下正在努力完善的“集群智能系统”(Collective AI System),即“有人-无人”协同作战经验,就是这些问题提出的最佳实例。概括来说,这种系统是为美军现有的第五代战机配备最先进的“无人僚机”,最大限度地提升五代战机的作战性能并形成空中“作战网络节点”效果,构成有人战机、无人战机与地面遥控指挥完美配合的“空中交战铁三角”。这种新式的战争系统,自然带来许多必须认真面对的战争逻辑问题。
作为与会应邀嘉宾,笔者全程参加了这次讨论,可以说获益匪浅。其中有三点感受至深。
然而,令人担心的是,相比人工智能技术上的突飞猛进,对人工智能引发武装冲突、甚至爆发战争的可能风险研究,却相对落后。表现在理论研究的落后、早期预警及终止系统的落后、风险控制的落后,以及严重缺乏跨国防范并阻止人工智能引发战争危机的安全架构。
除美国外,近年俄罗斯、中国、英法德、以色列和日本等国家,也在不断加大对军事化人工智能技术的研发和制造力度,而印度、伊朗甚至朝鲜,同样紧追不放,在不同层面、不同装备应用上各有所长。但无论如何,美国凭借其强大的技术研发团队和雄厚的资金支持,军事化人工智能如“未来战术无人飞行器”“无人水下航行器”“空军人工智能与非作战支持系统”“对抗环境下的目标识别与自适应系统”等,都处于世界领先地位。