【小哈划重点:据预测,到2027年,全球与人工智能相关的用电量每年将增加85~134太瓦时。这相当于荷兰、阿根廷、瑞典等国家的年用电量。】
人工智能有望帮助程序员更快编写代码,让司机更安全驾驶,并减少日常任务耗时。不过,近日发表于《焦耳》的一篇观点文章认为,如果未来广泛采用人工智能,可能产生大量能源足迹,其电力消耗甚至会超过一些国家。
“考虑到对人工智能服务日益增长的需求,未来几年与人工智能相关的能源消耗很可能会大幅增加。”文章作者、荷兰阿姆斯特丹自由大学的Alex de Vries说。
自2022年以来,可生成文本、图像或其他数据的生成式人工智能经历了快速发展,例如OpenAI的ChatGPT。训练这些人工智能工具是一个能源密集型的过程,需要向模型提供大量数据。总部位于美国纽约的人工智能开发公司Hugging Face报告称,其多语言文本生成人工智能工具在训练期间消耗了约433兆瓦时的电力,这足以为40个普通美国家庭供电1年。
而且人工智能的能源足迹还不止于训练过程。De Vries的分析表明,每当该工具生成文本或图像时,也会使用大量的计算能力和能源。例如,ChatGPT每天运行可能消耗564兆瓦时的电力。
虽然世界各地的公司都在努力提高人工智能硬件和软件的效率,以降低这种工具消耗的能源,但作者表示,机器效率的提高往往会增加消耗。最终,技术进步将导致资源使用的净增加,这种现象被称为杰文斯悖论。
De Vries说:“提高这些工具的效率和易用性的结果,可能是我们允许更多的应用程序和更多的人使用它。”
例如,谷歌一直在将生成式人工智能整合到公司的电子邮件服务中,并正在测试用人工智能为其搜索引擎提供协助。该公司目前每天处理90亿次搜索,研究人员估计,如果每一次谷歌搜索都使用人工智能,每年将需要大约29.2太瓦时的电力,这相当于爱尔兰1年的用电量。
De Vries表示,这种极端情况在短期内不太可能发生,因为额外的人工智能服务器成本高昂,而且人工智能服务器供应链存在瓶颈。但人工智能服务器的生产预计将在不久迅速增长。据预测,到2027年,全球与人工智能相关的用电量每年将增加85~134太瓦时。这相当于荷兰、阿根廷、瑞典等国家的年用电量。
此外,人工智能效率的提高还可以使开发人员将一些计算机处理芯片重新用于人工智能,这可能会进一步增加人工智能的电力消耗。
“潜在的增长表明,我们需要特别注意使用人工智能的目的。它是能源密集型的,所以我们不应该把它用在我们实际上不需要的地方。”De Vries说。
相关论文信息:
http://doi.org/10.1016/j.joule.2023.09.004
《中国科学报》 (2023-10-18 第2版 国际)
(原文标题《人工智能耗电量堪比一个国家》)