人工智能(AI)其实并不新鲜。这项技术早在20世纪50年代就已出现,从那时起人工智能工具已经成为企业必不可少的工具。与消费者互动的制造、金融和研究公司,都在使用人工智能来管理客户和提高生产力。人工智能工具将重塑经济,但是,这会是一个迭代的过程,因为创新者会找到更好的方法来利用人工智能获得竞争优势。其实,这与互联网花了多年时间才获得收益的方式类似。人工智能是一种工具,它肯定能提高其他工具的生产力。

智库:如何正确把握人工智能的真正风险

人工智能的第一波热潮在20世纪80年代达到顶峰。现在,“生成式人工智能”(GenAI)引发了最新一轮的关注。ChatGPT就是生成式人工智能的一个著名例子。它在庞大的数据库中接受训练,无需人工干预就能生成文本、软件和视频。人工智能依赖于从网络上搜索数据,这对现有的知识产权法律提出了挑战,有些人担心可能没有足够的新数据可供搜索。生成式人工智能看起来很人性化,因为它可以直接与人互动,但是,其实这却只是一种假象。Meta公司的首席人工智能科学家甚至说,人工智能还不如一只猫聪明,甚至连洗碗机怎么装水都搞不清楚。

矛盾的是,人工智能既带来了繁荣,也带来了阴霾。目前存在人工智能金融上的泡沫。去年,对人工智能技术的投资翻了两番,可随之而来的却是人们的焦虑情绪。

人们普遍担心人工智能会导致大规模失业。这其实是一个错误认识。自动化会导致一些工作岗位消失,这种担忧可以追溯到十九世纪初工业化的初期。英国工人曾攻击机器和工厂,因为他们认为这些机器和工厂威胁到了他们的工作。人们往往把自动化的风险与社会政策的失败混为一谈,结果就无法公平地分配更高的生产率所带来的成果。许多人都知道,凯恩斯在1930年写道,自动化创造的就业机会多于其成本。几十年后,他的观点仍然正确。工作岗位会发生变化,但同时也会创造更多新的工作岗位,随之而来的是更多的财富和闲暇。

另一种担心是,人工智能会“觉醒”,变得有知觉,并接管世界,或许在此过程中毁灭所有人类生命。这是上个世纪许多电影的情节。现在,人们的确应该对这些担忧持高度怀疑态度。埃隆-马斯克说,人工智能是“人类文明未来的最大风险之一”,而物理学家斯蒂芬-霍金则警告说,“完全人工智能的发展可能意味着人类的终结”。人工智能安全中心甚至将人工智能的风险与疫情或核战争的风险相提并论。事实上,大多数研究人员对人工智能是否会拥有独立的规划、潜行和独立思考能力,从而成为一种生存威胁存在分歧。

人们对“杀手机器人”也有类似的担忧,这种自主设备可以在没有人类监督的情况下独立作战。自主设备的研发进展自然会应用于军事领域,使武器更加精确和灵活。由于人类对高超音速导弹的来袭反应过于迟缓,防空系统就是自动化武器发展的一个例子。武器肯定会实现自动化,但是,杀手机器人却并不存在,而且可能永远不会存在。因为,它们面临着与自动驾驶汽车相同的问题:无法应对复杂的物理环境。

智库:如何正确把握人工智能的真正风险

人工智能已经有了恶意用途,尽管并非全部都那么致命。人工智能被用来扩大“假新闻”的影响,加剧互联网造成的政治动荡。社会上已经出现了人工智能生成的“深度假新闻”,让世界领导人说了一些他们从未真正说过的话。拜登总统在一次关于美国新的人工智能行政令的演讲中对此开了个玩笑,该行政令提醒人们注意人工智能可能被滥用于开发新的生物武器。但是,这些恐惧反映了一些更深层次的社会焦虑,类似于十七世纪许多精英和专家广泛认同的对巫术的恐惧。

技术优势与军事成功之间的关系错综复杂,其他因素比技术更为重要。对偏见和社会影响的类似担忧,反映出人们相信存在系统性的行为模式和偏见。在大多数情况下,一种不言而喻的假设是,社会会制造工具,也会失去对工具的控制。

精英的认可并不能保证其真实性。1600年代的有识之士被一些站不住脚的证据所说服,认为老人与撒旦有肉体关系,并用猫与撒旦交流。一种可能的解释是,快速、广泛和明显无法控制的变革时期会产生焦虑,而巫术或人工智能等一些外部现象则为焦虑提供了一个出口。虽然这种解释并不令人满意,但对人工智能的安全性、偏见或主导地位的担忧,实际上与关于疫苗的阴谋论有异曲同工之妙,只是更容易为社会所接受。为什么民主社会在过去三十年里变得更加厌恶风险,而厌恶风险的社会则很容易在没有危险的地方感知到危险。

围绕人工智能的讨论,主要集中在道德准则的必要性上,以确保以有原则的方式使用人工智能。英国举办了人工智能安全峰会。欧盟通过了一项人工智能法案,对人工智能进行监管,它甚至引起了法国总统马克龙的抱怨,认为该法案过于宽泛,给创新带来了风险;经济合作与发展组织也发布了人工智能风险管理指南。所有这些指导方针都承认,有必要在人工智能系统的任何潜在风险与失去新技术将带来的经济和社会效益的风险之间取得平衡。

然而,如果只关注潜在的危险和界定合乎道德的使用,而不从经验中获益,就不可避免地会损害人工智能促进经济增长的潜力以及它将为研究和创新带来的益处。目前的趋势是,根据对潜在危害的预测,而不是实际危害,为人工智能制定限制性规则。许多政府和研究人员低估了扼杀创新的难度,因为创新需要非同寻常的冒险意愿。通过设置障碍和制造不合理的合规负担(不合理的合规负担针对的是未观察到的或假设的恐惧),政府将减少人工智能可帮助创造的新产品和服务的数量,并阻止公司,尤其是新成立的小公司进入这一领域。决策者尊重创新需求的承诺并不能弥补监管风险。

困境就在于此。自20世纪90年代以来,欧盟的数字技术法规为创新者和投资者设置了官僚主义障碍,从而损害了欧洲的经济增长。法国和德国等国的GDP增长率只有美国和中国的四分之一,这是因为欧盟的法规减缓了经济数字化的进程。这就是为什么欧盟既缺乏科技巨头,也缺乏独角兽企业。新的人工智能规则可能会将欧洲锁在进一步增长和创新的大门之外,如果这些规则被照搬,美国和世界其他国家也可能会与欧洲一起失去利益。

智库:如何正确把握人工智能的真正风险

这些焦虑预测背后的动机值得商榷。可能是想通过发表极端言论来吸引公众的注意。也有可能是出于商业动机,有人猜测目前在人工智能领域处于领先地位的大公司希望利用监管将潜在的竞争对手置于不利地位。人工智能的出现也正值人们对日益恶化的国际形势感到焦虑之际。人们对技术进步的看法发生了广泛而深刻的变化。互联网是上一次重大技术变革,当时人们对互联网将如何把世界变成一个战争已经结束、所有国家都走上市场民主道路的美好千禧年和乌托邦式的预测。这是一厢情愿的想法,虽然对人工智能的预测更加悲观,但并不更准确。

更准确的结论是,人类不善于预测技术的未来。关于自动化将使工作岗位消失的预测,可以追溯到两个世纪前工业时代的开始,关于杀手机器人和电子大脑主宰人类生活的预测可以追溯到20世纪20年代,而在1945年之后,还有人预测计算机智能会造成生存威胁。核武器引发了一股关于人类生命终结的预言洪流,这些预言在情感上令人满意,而在统计上却是错误的。为什么社会会被迫做出末日预言,为什么这些预言是错误的,这些都需要单独进行分析。这些社会恐惧可能反映了一种观察能力,但却无法控制由技术创造的强大而看似不近人情的趋势。

人工智能只是机器取代人类劳动进程中的又一步,而这一进程早在两个多世纪前就已开始。自动化将继续提高生活水平和生活质量。这些担忧反映了更深层次的社会恐惧,我们并不否认这些担忧,只是,强调风险并没有抓住重点。逃避技术的社会将失去改善的机会。人工智能给政策制定者带来的挑战是,如何以最佳方式利用人工智能来加速创新和提高生产力,以及如何公平地改善全体公民的生活水平。这就是亟待解决的人工智能政策问题。

战略与国际研究中心2024年6月11日詹姆斯-安德鲁-刘易斯

声明:该文观点仅代表作者本人,本信息平台不持有任何立场,欢迎在下方【顶/踩】按钮中亮出您的态度。