美国人开始发急:别去管哪些法规的事情了,人工智能首席执行官们需要速度来“击败中国”。令人惊讶的是,大型科技巨头正在利用人们的恐惧来阻止令人讨厌的安全检查和平衡
2021年人工智能国家安全委员会(NSCAI)最终报告(由前谷歌首席执行官埃里克·施密特主持)宣称,我们正在积极进行一场人工智能军备竞赛,并指出“如果美国不采取行动,它很可能在未来十年内失去其在人工智能领域的领导地位,而让中国取而代之”。
这场竞赛的独特之处在于,与其他军备竞赛(如核武器)不同,人工智能的绝大多数突破都来自工业界而非政府。正如一位学者所言,“人工智能的安全困境是因为商业和市场力量驱动,不受国家的积极控制。”为了说明这种动态,2023年8月,施密特创建了一家名为“白鹳”的军事初创公司,该公司正在为乌克兰开发人工智能攻击无人机,以对抗俄罗斯。
因此,在军事背景下理解人工智能的关键行为者是那些开发人工智能的公司,他们越来越多地向立法者和公众游说,要求避免监管,并将人工智能纳入军事系统。这一领域的行为者可能有多种动机,其中最值得注意的是通过保持对中国的技术优势来创造利润和支持美国军事力量的愿望。这些动机往往交织在一起,因为个人、公司和智库(例如施密特资助的特别竞争力研究项目)合作宣传我们需要首先建立人工智能,然后再担心潜在后果。
特别是对速度的痴迷,因为,谁跑得最快谁就赢得比赛。NSCAI报告哀叹道:“美国政府仍然以人类的速度而非机器的速度运作”,并警告称:“推迟人工智能的采用会将所有风险推给下一代美国人——他们必须用20世纪的工具来抵御甚至对抗21世纪的对手。”从这个角度来看,人工智能带来的风险在于未能率先应对。
竞赛的弊端在于,全速奔跑时没有时间质疑竞赛本身是否像核军备竞赛一样制造危险。不幸的是,我们必须领先人工智能的论点已经被科技行业作为武器,用来抵御监管。这个时间表描绘了科技行业与国家安全或政治人物之间日益紧密的合作,他们将与中国竞争作为避免对科技行业特别是人工智能进行监管的关键理由。
在前沿人工智能开发人员中,开源最先进的模型可谓独一无二,这种公开可用的代码很容易被移除安全限制,而且,这种情况在最新模型发布几天内就发生了。Meta公司花费了超过8500万美元资助了一场暗中影响舆论的运动,通过一个名为“美国优势项目”的幌子公司游说反对人工智能监管,后者还花钱刊登了危言耸听的广告,将人工智能监管描述为“亲华立法”。正如著名人工智能安全专家海伦·托纳所说:担心中国人工智能的冷战态势以及随之而来的“……毫无根据的焦虑不应决定美国人工智能监管的进程”。
不幸的是,这种种族言论已经导致几乎完全阻止了有意义的联邦立法。虽然已经提出了一些法案,但共和党众议院多数党领袖史蒂夫·斯卡利斯表示,共和党不会支持任何有意义的AI监管,以维护美国的技术主导地位。
前总统唐纳德·特朗普曾誓言要在上任第一天就废除拜登关于人工智能的行政命令。著名自由主义科技投资人马克·安德森表示,他在华盛顿特区与政策制定者讨论人工智能时,他们从支持人工智能监管转变为“我们需要美国科技公司取得成功,我们需要击败中国”,当他提到中国时。在我进行的一次采访中,人工智能记者沙克尔·哈希姆解释说:"非常有经验的游说者经常谈论中国,他们这样做是因为这很有效。就拿非常鹰派的希尔谷论坛或梅塔基金会资助的美国优势项目来说。他们和其他人都在使用中国叙事,这表明他们认为这很有效。”
虽然行业倡导者在试图阻止加州人工智能监管参议院法案1047时也广泛使用了关于需要不受限制的创新这一更传统的经济论点,但国家安全论点似乎在国家层面特别有力,并允许人工智能游说者将任何潜在的监管描述为不爱国。
人工智能开发的问题不在于任何特定的AI技术必然存在致命缺陷。问题在于,在争先恐后的竞争中,人们不会充分重视对特定人工智能项目或应用(无论内部还是外部提出的)风险的担忧。
在商业方面,我们已经看到这种动态在OpenAI安全团队的解散中得到了体现。在OpenAI,商业市场要求走在人工智能前沿的压力导致产品开发凌驾于内部安全团队的担忧之上。安全团队前负责人JanLeike辞职,并强调他的团队无法获得承诺的资源,安全“让位于闪亮的产品”。缺乏透明度使我们无法确定在军事人工智能开发中类似的安全问题被搁置的事件,但不难想象安全问题被搁置的情况。
遗憾的是,随着时间的推移,人工智能监管工作可能会面临更大的阻力,因为越来越多的公司认为,监管越少,他们的经济利益就越大。在技术威胁到来之前对其进行监管比较容易,但一旦技术融入世界和经济,监管就变得困难了。
这一挑战后来被称为科林里奇困境。解决科林里奇困境的唯一办法是现在就采取大胆行动,并听取人工智能专家的意见,即人工智能带来的风险是真实存在的。
《负责任的外交》2024年9月17日杰克·凯利
声明:该文观点仅代表作者本人,本信息平台不持有任何立场,欢迎在下方【顶/踩】按钮中亮出您的态度。