这场混战似乎不公平。
两架F-16战斗机在岩石沙漠上空16000英尺的高度与一架对立的F-16战斗机交战。当这两架飞机从相反的方向汇合时,两架f -16突然偏离对方,迫使他们的敌人选择一架进行追击。被孤立的F-16迅速改变了航向,以教科书式的精准度在敌人后方机动。几秒钟后,它发射了一枚导弹,在对方飞机做出反应之前摧毁了它。
这场战斗发生在上个月的一个计算机模拟器中。它的特别之处在于:这三架飞机都是由人工智能算法控制的。这些算法在一定程度上是通过一种最先进的人工智能技术来学会如何反应和执行空中机动的,这种技术包括对不同的方法进行数千次测试,然后看看哪种方法最有效。
这场三方的战斗让我们得以一窥人工智能可能如何控制未来的战斗机,以及部署这项技术可能面临的挑战。
五角大楼对此很感兴趣。去年3月,美国国防高级研究计划局(Darpa)邀请团队开发能够在超过人类能力的空战情况下控制战斗机的人工智能系统,包括涉及多架飞机的场景。人工智能可以让多架飞机“群集”在一起,从而改变空战的动态。
”的一件事,最突出的原因是能够使你称之为群warfare-rapidly压倒性的对手,”Chris Gentile说一支ex-Air EpiSci战斗机飞行员是一个项目经理,一个军事承包商正在开发的技术竞赛,被称为空战进化。他说,飞行员可能有一天会告诉人工智能程序扫描一个地区,或在飞行员与另一个对手交战时照顾一个对手。这些指示相当于“基本上是掩护我,”詹蒂莱说。
“其中一件真正突出的事情是你可以称之为群战的能力——迅速压倒对手。”
Chris Gentile,前空军战斗机飞行员和EpiSci项目经理
人工智能已经在模拟天空中展示了自己的实力。去年,在Darpa的一次演示中,一架人工智能控制的战斗机轻松击败了一名人类飞行员。该程序使用一种人工智能技术进行训练,这种技术在电子游戏和机器人技术方面取得了突破。这种技术被称为强化学习,可以训练机器完成一些任务,比如用超人的技能玩微妙的棋盘游戏。这个学习过程涉及到一个大型的模拟神经网络,它通过反馈来磨练自己的行为,比如游戏中的分数。EpiSci也在空战进化中使用强化学习。
然而,现代人工智能的工作方式提出了部署这项技术的可行性的问题。飞行员将被要求把他们的信任和生命交给以神秘方式运作的算法。真正的战斗机飞行员受训人员要花几个月的时间学习正确的飞行和协同作战协议。由于多架喷气机在高速旋转,哪怕是最轻微的错误或沟通失误都可能带来灾难性的后果。
军方领导人表示,在决定是否使用致命武力时,总是要有人类参与。Darpa负责该项目的项目经理Dan Javorsek说:“人类与人工智能合作是必然的。”贾沃塞克表示,这部分是因为人工智能可能失败的风险,但也有“法律、道德和伦理”的原因。他指出,尽管空中空战极其罕见,但它们为训练人工智能程序与人类飞行员合作提供了一个广为人知的舞台。该计划是在2023年底在真正的飞机上测试最好的算法。
但杜克大学(Duke University)教授、研究自动化系统的前战斗机飞行员米西•卡明斯(Missy Cummings)表示,在高速飞行的喷气式飞机上做出决策的速度意味着,任何人工智能系统都将在很大程度上实现自主。
她对先进的人工智能是否真的需要用于空战表示怀疑,在空战中,飞机可以由一套更简单的手工编码规则来引导。她还对五角大楼急于采用人工智能持谨慎态度,称错误可能会削弱人们对这项技术的信心。她说:“国防部的人工智能越糟糕,与这些系统相关的飞行员或任何人就会越少信任它们。”
人工智能控制的战斗机最终可能会执行部分任务,比如自主测量区域。目前,EpiSci的算法正在学习遵循与人类飞行员相同的协议,并像中队的另一名成员一样飞行。Gentile一直在进行模拟飞行测试,在这些飞行中,人工智能承担了避免空中碰撞的所有责任。
“国防部的人工智能越糟糕,与这些系统相关的飞行员或任何人就越少相信它们。”
米西·卡明斯,杜克大学教授,前战斗机飞行员
人工智能在军事上的应用似乎正在加速。五角大楼认为,人工智能将被证明在未来的战争中至关重要,并正在测试从后勤、任务规划到侦察和战斗的所有技术。
人工智能已经开始悄悄进入一些飞机。去年12月,美国空军在一架U-2侦察机上使用人工智能程序控制雷达系统。虽然不像控制战斗机那样具有挑战性,但这是一个生死攸关的责任,因为在地面上缺少导弹系统可能会使轰炸机暴露在攻击之下。
使用的算法受到Alphabet子公司DeepMind开发的算法的启发,通过数千次模拟任务,学会了如何引导雷达,以识别地面上的敌人导弹系统,这是一项在实际任务中对防御至关重要的任务。
今年1月卸任的空军助理部长威尔·罗珀(Will Roper)说,这次演示的部分目的是为了表明,在旧的军事硬件上快速部署新代码是可能的。他说:“我们没有给飞行员设置超驰按钮,因为我们想说,‘我们需要做好准备,在人工智能真正控制任务的情况下,以这种方式操作。’”
但是罗珀说,重要的是要确保这些系统正常工作,确保它们自身不会受到攻击。“我确实担心我们过度依赖人工智能,”他说。
国防部可能已经对人工智能的使用存在一些信任问题。乔治敦大学(Georgetown University)安全与新兴技术中心(Center for Security and Emerging Technology)上个月发布的一份报告发现,涉及人工智能的军事合同很少提及要设计出值得信赖的系统。
该中心的研究员玛格丽塔•科纳耶夫(Margarita Konaev)表示,五角大楼似乎意识到了这个问题,但它很复杂,因为不同的人倾向于以不同的方式信任人工智能。
部分挑战来自现代人工智能算法的工作方式。通过强化学习,人工智能程序不会遵循明确的编程,有时它可以学习以意想不到的方式行事。
EpiSci首席执行官Bo Ryu表示,他们公司的算法是根据军方使用人工智能的计划设计的,由一名人类操作员负责部署致命力量,并能够在任何时候进行控制。该公司还在开发一种名为“群感”(Swarm Sense)的软件平台,使民用无人机团队能够协作绘制或检查一个地区。
他说,EpiSci的系统不仅依赖于强化学习,还内置了手写规则。Ryu说:“毫无疑问,神经网络确实有很多好处和收获。“但我认为,我们研究的本质和价值,是找出你应该和不应该在哪里放置一个。”