阿姆斯特丹自由大学的博士候选人亚历克斯·德·弗里斯(Alex de Vries)在《焦耳》(Joule)杂志上发表了一项关于新兴技术(如生成式人工智能)对环境影响的研究。
在不到一年的时间里,诸如ChatGPT(来自OpenAI)、Bing Chat(微软)和Bard(谷歌)等工具的出现,以及Midjourney和其他图像领域的工具,极大地推动了对服务器的需求,因此也增加了保持服务器平稳运行所需的能量。这一发展不可避免地引发了人们对这项技术对环境影响的担忧,而这项技术已经被许多人使用。
近年来,除加密货币挖矿外,数据中心的用电量相对稳定,约占全球用电量的1%。然而,人工智能的扩张在许多领域都是不可避免的,很可能会改变游戏规则。
根据Alex de Vries的说法,仅GPT-3语言模型在训练期间就消耗了超过1,287兆瓦时。在此阶段之后,该工具开始工作——与ChatGPT一起,生成对来自Internet用户的提示的响应。
今年年初,SemiAnalysis估计OpenAI需要3,617台服务器,总共28,936个图形处理单元(gpu)来支持ChatGPT,这相当于每天约564兆瓦时的电力需求。
当然,这仅仅是个开始。根据SemiAnalysis的说法,在每个谷歌搜索中实现类似ChatGPT的人工智能将需要使用512,821个专用服务器,或者总共超过400万个gpu。
每台服务器的电力需求为6.5千瓦,这将转化为每天80吉瓦时的电力消耗和每年29.2太瓦时(太瓦时,或10亿千瓦时)的电力消耗。从最悲观的角度来看,谷歌大规模部署人工智能所消耗的电力相当于爱尔兰这样的国家(每年29.3太瓦时)。
Alphabet已经证实,与语言模型交互可能比标准关键字搜索消耗多达10倍的电量,从0.3 Wh增加到约3 Wh。在人工智能服务器的领先供应商英伟达(Nvidia),到2027年,人工智能服务器的销量将超过150万台,每年的总消耗量将在85至134太瓦时之间。
总之,人工智能相关的电力消耗正迅速成为一个主要问题。然而,有许多方法可以减少这种情况。第一个显然是优先使用可再生能源为数据中心供电。
接下来,需要找到开发消耗更少能量的算法的方法。最后,可以教育互联网用户负责任地使用人工智能,而不是过度使用。-法新社新闻
<