随着中美等大国正在推进的忠诚僚机项目,工智能技术在无人机上的使用成大势所趋,空战无人机的出现就成为必然。但是,人工智能控制的无人机应该有什么样的权限?会不会反噬人类?这个风险可能真的比较大。

美国空军披露的信息称,一架带有人工智能驱动系统的无人机变成无赖,将美军控制人员反杀,变成敌我不分的空中屠夫。

据战区专栏报道,一位参与美国人工智能和机器学习工作的美国空军军官说,在一次模拟测试中,一架无人机在判定人类控制员妨碍其任务后攻击了人类控制员,这个在《终结者》电影中假想的画面,成为了现实。这也警告各国,如果在发展无人战斗机过程不能很好的控制人工智能的权限,那么后果将不堪设想。

据美军透露,这次攻击发生的场景如下,一架人工智能控制的无人机执行攻击任务,以识别和摧毁敌方目标,并由人类给出最后的通过/不通过。然而,在训练破坏敌方目标时,人工智能把完成任务当成是首选,AI认为人类控制员下达的不执行,决定干扰其完成更高的任务,然后攻击了操作员。

你也可以这么理解,人工智能得到的最高任务是攻击敌方目标,因为权限太高,当操作员下令不要攻击时,人工智能判断这个命令干扰了其完成最高任务,于是干掉了美军。

随后,这架无人战斗机开始摧毁美军的通讯塔、操作员等目标,这事件显然不是强人工智能出现的不可控,而是美军试验的人工智能模型本身存在权限配BUG,也就是给了完成作战任务最高的打分。

但是,我们不可否认人工智能的确存在不可控的风险,在涉及使用致命武力的决策时,人类的最终决策决权有可能遭受到挑战。现在的问题是:人工智能战斗机带来的挑战为何非常严重?

首先,人工智能控制的战斗机有可能存在缺陷。道理很简单,就像我们使用的任何软件都可能有BUG一样,无人战斗机的人工智能越复杂,就越有可能出现权限错误,人工智能的智慧越高,自主意识就可能越强。所以,谁都无法保证人工智能战斗机的没有开火权是否会因为BUG而成为空谈。而一旦大国对峙之时,无人战斗机开火同样是开火,这个后果想想都后怕。