军事:霍金呼吁禁用一武器 西方忧中国赢军备竞赛(3)
参考消息 2015-07-29 12:08:56
联合国也担心其所谓的“致命性自主式武器”的开发,以至于它去年召开了有史以来第一次此类会议,讨论新科技带来的风险。
加利福尼亚大学伯克利分校的人工智能领域专家、该信的署名者之一斯图尔特·拉塞尔之前曾警告说,机器人武器系统可能使得人类“毫无防御能力”。
该信是今年第二封猛烈抨击将人工智能引入到战场上的信。不过,在呼吁禁止这些武器系统方面,这封最新的请愿书强硬有力得多。该信是由生命未来研究所协调写成的。
生命未来研究所是由包括Skype公司合伙创始人扬·塔林在内的众多志愿者于2014年创建的。马斯克和霍金均是该研究所科学顾问委员会的成员。
自主式杀人机器人的想法对许多军方人士而言具有吸引力,因为它们提供了重要的对敌优势,其部署不会令本国部队的任何人处于危险中,而且长期来看,比起必须支持和保护人员的先进武器,如战斗机,它们的成本应该更加低廉。
五角大楼是机器人研究的最大支持者之一。2013年,其智库之一海军研究处发给塔夫茨大学、布朗大学、伦斯勒理工学院、乔治敦大学和耶鲁大学等多所大学的研究人员一笔研究经费,高达750万美元,让其研究如何能教会自主式机器人分辨对错。
西方军事规划者担心,如果他们没能致力于研究这一技术,那么他们可能会将新一轮军备竞赛的领导权让给潜在对手,比如中国。
狂踩
(20)
30.3%
点赞
(46)
69.7%