运行高处理芯片和冷却系统所需的能源,使人工智能像石油一样,对人类有利可图,却可能要付出环境代价。

尽管在学术和安全方面存在疑虑,但人类仍热切地拥抱人工智能,而人工智能对能源的渴求及其碳足迹正引起越来越多的关注。人们经常把人工智能与化石燃料相提并论。石油一旦开采和提炼出来,就是一种利润丰厚的商品;与石油一样,人工智能也会对环境产生巨大影响,这令许多人感到惊讶。

《麻省理工学院技术评论》上的一篇文章称,训练普通大型人工智能模型的生命周期对环境有重大影响,报道称"整个过程可以排放超过62.6万磅二氧化碳当量,几乎是普通美国汽车一生排放量的五倍,其中还包括汽车本身的制造"。

阿姆斯特丹VU商业与经济学院的亚历克斯-德-弗里斯的一篇研究文章,也对计算加速发展的耗电量以及人工智能和数据中心对环境的潜在影响提出了担忧。德-弗里斯说:"近年来,数据中心的用电量占全球用电量的比例相对稳定,仅为1%。不过,其中不包括加密货币挖矿”。

麻省理工学院的一项研究指出,十年前,"大多数NLP(自然语言处理)模型都可以在商品笔记本电脑或服务器上进行训练和开发"。但现在,人工智能数据中心需要多个专用硬件实例,如图形处理器(GPU)或张量处理单元(TPU)。

人工智能如何运作

哥伦比亚气候学院的一篇文章说:"大型语言模型的目标,是猜测文本接下来的内容。"要实现这一目标,首先必须对其进行训练。训练包括让模型接触海量数据,具体可能是数千亿个单词,这些数据可以来自互联网、书籍、文章、社交媒体和专业数据集。"

这一训练过程需要数周或数月,在此期间,人工智能模型通过权衡不同的数据集,找出如何准确执行特定任务的方法。

起初,人工智能模型通过随机猜测来找到正确的解决方案。但随着不断的训练,它能从给定数据中识别出越来越多的模式和关系,从而得出准确而相关的结果。

近年来,用于训练神经网络的技术和硬件的进步使"许多基本NLP任务的准确性得到了令人印象深刻的提高"。

麻省理工学院的研究报告补充说:"因此,训练一个最先进的模型现在需要大量的计算资源,而这些计算资源需要大量的能源以及相关的财务和环境成本”。

人工智能数据中心的能源需求和碳足迹

OpenAI的ChatGPT推出后,人工智能在2022年和2023年迅速扩张和大规模应用,推动了微软和Alphabet(谷歌)等大型科技公司开发大型语言模型(LLM)。

弗里斯在文章中回忆道,ChatGPT的成功,表现为两个月内用户数量达到前所未有的1亿,它影响了微软和谷歌推出自己的人工智能聊天机器人,分别是BingChat和Bard。

弗里斯告诉RT:"我们已经知道,数据中心占全球耗电量的1%。得益于加密货币挖掘和人工智能等数字趋势,未来几年这一比例很容易增长到2%甚至更高。"

麻省理工学院的研究估计,云计算的碳足迹比整个航空业还要大。此外,一个数据中心所需的电力,可能相当于约5万个家庭的用电量。

运行高性能芯片和冷却系统需要电力,因为处理器在分析海量数据并做出准确响应时会发热。

德弗里斯的研究报告称,Hugging Face的"BigScience大型开放科学多语言(BLOOM)模型在训练期间消耗了433兆瓦时的电力"。

其他LLM,包括GPT-3、Gopher和OpenPre-trainedTransformer(OPT),据说在训练过程中分别消耗了1287、1066和324兆瓦时。研究补充说:"这些LLM中的每一个都是在TB级数据基础上训练的,拥有1,750亿或更多参数”。

DeVries在论文中引用了研究公司SemiAnalysis的数据,该数据显示,OpenAI需要3,617台英伟达公司的HGXA100服务器,共计28,936个GPU来支持ChatGPT,这意味着每天的能耗需求为564兆瓦时。

谷歌报告称,从2019年到2021年,60%的人工智能相关能耗来自推理,也就是通过人工智能模型运行实时数据。谷歌母公司Alphabet也对推理成本与训练成本相比表示担忧。

加州大学伯克利分校研究人员的一项研究估计,ChatGPT的模型GPT-3有1,750亿个参数,在训练阶段产生了502吨二氧化碳,而其每天的碳排放量为50磅或每年8.4吨。

关于人工智能可行性和未来行动的讨论

DeVries表示,数据中心对能源的更高需求通常将由化石燃料来满足。"我们只有有限的可再生能源供应,而且我们(已经)优先考虑了这些,因此任何额外的需求都将由我们需要摆脱的化石燃料提供动力,"他告诉RT。"即使我们将可再生能源投入人工智能,其他地方的其他东西也必须由化石燃料提供动力--这只会加剧气候变化。"

印度商学院教授、印度Niti Aayog数据分析中心前负责人阿维克-萨卡尔认为,围绕人工智能能源需求和碳足迹的争论微不足道。2018年,他与国际能源机构合作,就印度数据中心的增长及其对该国能源消耗的影响进行了分析。

"人工智能对能源消耗的影响微乎其微,许多技术都在大量消耗能源,"他告诉RT。"看看大城市里的任何一条高街,广告牌的照明量都非常大,以至于从外太空都能看到灯光,被称为夜灯,这是发展和经济增长的一个很好的指标。能源消耗是城市化、资本主义和经济增长的自然结果,我们必须学会接受这一现实"。

在谈到人工智能数据中心的能源需求和碳排放的影响时,德弗里斯说,这个问题不仅仅局限于印度,气候变化是一个全球性问题。他说:"如果我们因为人工智能而推高了电力需求和碳排放,这也会影响到所有脆弱的国家”。

萨卡尔承认,由于大型数据中心提供了存储和计算基础设施,人工智能产生了大量能源消耗。数据中心的冷却用水也会产生进一步的能源影响。

萨卡尔指出,大多数全球数据中心都位于印度之外,因此印度目前并未面临重大挑战。除个人数据外,印度的其他数据点都可以存储在国外的数据中心。

"与金融交易、Aadhar或医疗保健数据相关的关键数据需要驻留在印度,这将是一个巨大的问题”。他建议说:"印度有不同的气候区,可以将这些数据中心设在国内较凉爽的非地震带,从而降低高能耗”。

德弗里斯认为,好消息是人工智能服务器供应链存在瓶颈,这意味着短期内增长会受到一定限制。他说:"我们应该利用这个机会,思考如何负责任地应用人工智能,并确保在使用人工智能的地方也能提供透明度,这样我们才能正确评估这项技术带来的影响”。

RT2024年1月9日桑吉夫-库马尔

声明:该文观点仅代表作者本人,本信息平台不持有任何立场,欢迎在下方【顶/踩】按钮中亮出您的态度。