其次,人工智能战斗机杀人之后没有道德和伦理障碍,甚至都很难找到责任人,挑战现有国际秩序关于战争罪犯的定义,人工智能杀人了,你找谁负责,是程序员吗,还是操作员?问题是这个程序可能是几千个人写出来的,也可能就是AI通过自我学习造成的。所以,任何战争罪都难以制约人工智能误杀人的现象。

最后,不存在任何风险,美国都一定会研制无人战斗机。虽然人工智能控制的飞机存在风险,但是按美军的第六代战斗机的发展规划,忠诚僚机就要采购1000架,这些飞机在一定程度上都会使用人工智能。未来,人工智能控制的战斗机夺取制空权也是必然的,因为其优势相比风险对任何国家来说都是太有诱惑力了。

总体而言,美军发展人工智能战斗机的这次灰天鹅事件,再次证明无人战斗机技术面临的风险,但是这不会阻止美军发展这项技术。

对此,中国当然要跟上美军的步伐,同时也要准备与美军共同制定在军事领域使用人工智能的规则,这样双方才能最大限度的降低新技术带来的风险。