生成式人工智能使用的能源可能很快就会超过一个国家

admin 2023-11-30 20:36:17 浏览量:9
问题描述:
最佳经验
内容来源:http://www.xxyiy.cn/news/show-18237.html
一位荷兰研究人员强调了由生成式人工智能驱动的新一代工具所带来的巨大能源消耗。最终,如果它们被广泛采用,这些工具最终消耗的能源可能相当于一个国家,甚至几个国家的总和。

阿姆斯特丹自由大学的博士候选人亚历克斯·德·弗里斯(Alex de Vries)在《焦耳》(Joule)杂志上发表了一项关于新兴技术(如生成式人工智能)对环境影响的研究。

在不到一年的时间里,诸如ChatGPT(来自OpenAI)、Bing Chat(微软)和Bard(谷歌)等工具的出现,以及Midjourney和其他图像领域的工具,极大地推动了对服务器的需求,因此也增加了保持服务器平稳运行所需的能量。这一发展不可避免地引发了人们对这项技术对环境影响的担忧,而这项技术已经被许多人使用。

近年来,除加密货币挖矿外,数据中心的用电量相对稳定,约占全球用电量的1%。然而,人工智能的扩张在许多领域都是不可避免的,很可能会改变游戏规则。

根据Alex de Vries的说法,仅GPT-3语言模型在训练期间就消耗了超过1,287兆瓦时。在此阶段之后,该工具开始工作——与ChatGPT一起,生成对来自Internet用户的提示的响应。

今年年初,SemiAnalysis估计OpenAI需要3,617台服务器,总共28,936个图形处理单元(gpu)来支持ChatGPT,这相当于每天约564兆瓦时的电力需求。

当然,这仅仅是个开始。根据SemiAnalysis的说法,在每个谷歌搜索中实现类似ChatGPT的人工智能将需要使用512,821个专用服务器,或者总共超过400万个gpu。

每台服务器的电力需求为6.5千瓦,这将转化为每天80吉瓦时的电力消耗和每年29.2太瓦时(太瓦时,或10亿千瓦时)的电力消耗。从最悲观的角度来看,谷歌大规模部署人工智能所消耗的电力相当于爱尔兰这样的国家(每年29.3太瓦时)。

Alphabet已经证实,与语言模型交互可能比标准关键字搜索消耗多达10倍的电量,从0.3 Wh增加到约3 Wh。在人工智能服务器的领先供应商英伟达(Nvidia),到2027年,人工智能服务器的销量将超过150万台,每年的总消耗量将在85至134太瓦时之间。

总之,人工智能相关的电力消耗正迅速成为一个主要问题。然而,有许多方法可以减少这种情况。第一个显然是优先使用可再生能源为数据中心供电。

接下来,需要找到开发消耗更少能量的算法的方法。最后,可以教育互联网用户负责任地使用人工智能,而不是过度使用。-法新社新闻

<

举报收藏 0打赏 0评论 0