武汉市科协

科技前沿

同样写下300字,你猜AI和人脑,谁消耗的能量多?答案太颠覆……

发布日期:2025/9/29 9:37:48      来源:中国科协科普部      作者:
字体显示:【大】  【中】  【小】
    
      你最近是习惯点开搜索框查资料,还是随手问AI要答案?
      当我们习惯事事问AI ,你有没有想过这几个问题:AI每敲下一段回答,大概会消耗多少能量?以及如果把人脑比作“生物计算机”,和AI的“硅基大脑”比起来,到底谁处理信息的能耗更高效?
      答案可能会颠覆你对“智能”的固有认知——AI每一次输出的背后,都藏着远超想象的能量流动;而大脑——这个进化了数百万年的“生物CPU”,或许正藏着最节能的生存智慧。
      今天这篇文章,让我们跟着作者抽丝剥茧,好好算算这笔“智能账”。
本文共4800多字阅读需要13分钟
      众所周知,我的大脑是个小气鬼。
      虽然它已经是我的身体中耗能最高的器官,霸占了我20%的日常能量消耗,但功率也不过16瓦。即使截稿日迫在眉睫,它也不肯提高一点功率来帮帮忙。
      我对着屏幕苦思冥想,想给自己的拙劣稿子写出点精彩的开头,它仍然无动于衷,甚至嘲笑我:
      拼尽全力?那好吧,你给我一杯拿铁,我加到20瓦。没有更多了,这是5.4亿年进化赋予这个古怪器官的功率上限。就像你的台灯,调到最亮也就那样。
      而我面前这台风扇正在呜呜叫的笔记本电脑,正在以115瓦的功率陪我一起发呆。光是开着这个几近空白的文档,它用的能源就是我大脑的10多倍。
      加上路由器、空调、冰箱。
      我坐在这堆电器中间,只为了写出一句“众所周知,我的大脑是个小气鬼。”
      与此同时,我的朋友发来了AI给她写的小说。3分钟,AI就给她的冷门CP写了一整篇小甜文。这3分钟的背后,是功率可能高达100兆瓦的AI数据中心在为她的CP努力。她的小甜文,看着就比我的文章成本贵多了。
真的如此吗?
      让我们请出马克·吐温,这位大作家在自传里凡尔赛地说,他年轻时“六十天里写了20万词,平均每天能写3000多词”,即便到了69岁,他依然能“每次坐下来写四五个小时,平均能写1400词”。
      算下来,他的职业生涯平均写作速度是每小时300词。按这个让我望尘莫及的速度来算,马克·吐温写300词需要1小时,他那20瓦的大脑就要烧掉20瓦时的电,这还不算上其他器官能耗和日常消耗。
      但是AI写300词呢?上个月谷歌发布的报告中提到,他们的 Gemini 处理一条请求只需要0.24瓦时,差不多只要人类大脑的1%。
      行吧,原来我才是那个又贵又慢的奢侈品。
      当然,你可能会想:这是写文章嘛,那还有AI画画呢?并且前段时间不是刚有媒体说不要对AI说谢谢来浪费能源,现在怎么又说人类更耗能了?
      的确,同样是写东西,对AI说一句“谢谢”,和让它正经写一篇创意故事,能耗就能差出9倍之多,这取决于模型调用的参数数量。简单来说,任务越复杂,能耗越大。
      而画画的逻辑则又不一样,生成图片通常采用的是扩散模型,消耗的能量和输入的提示词长度无关,而是取决于生成的图片分辨率大小和扩散的步数,步数越多,质量越高,当然也就更耗能。
      但算下来,使用拥有20亿参数的 Stable Diffusion 3 Medium 生成一张1024*1024分辨率的图像大约也是需要0.3瓦时,就算扩散步数到50,也就是0.6瓦时,数量级还是一致的。
      这就更让人好奇了:AI的单次成本这么低吗?谷歌报告里那0.24瓦时,真的把所有成本都包含进去了吗?
      为了确认这不是大公司的营销手段,我仔细阅读了一遍谷歌的报告,这份报告倒是非常翔实,把Gemini的能耗仔仔细细分成了四个部分进行统计。
      首先是AI加速器的能耗。把AI模型当成一个在超级计算器上执行的程序,这部分就是每次来请求时,芯片执行程序运算所消耗的能量。AI模型使用的芯片是专门优化过的GPU或者TPU,虽然它们比普通CPU聪明,但该烧的电一度也少不了,毕竟天下没有免费的计算。
      然后是CPU和DRAM的能耗,虽然AI模型通常不直接在CPU上进行计算,但是CPU得负责调度整个流程:接收问题、分配给GPU、整理答案再发回来,有点类似项目管理经理,而DRAM则是用来存储模型参数和中间计算结果的临时仓库,得随时待命,这种状态也是要烧电的。
      以上两个算是常规能耗,接下来是待机消耗,用户提问的频率并不恒定,很可能凌晨3点没什么人提问,而晚上8点服务器一直繁忙。但机器必须时刻准备着,就像空驶的出租车,就算没载客也要烧油钱。谷歌把这部分的能耗也摊派了进去。
      最后还有数据中心本身。服务器运行发热,冷却系统需要保证它们处于正常工作温度范围内。不间断电源能让数据中心保证永不断电,甚至连接服务器的每根网线都在偷偷吃电。整个数据中心就像一个需要24小时开空调的豪宅,电表转得飞快。
      算完这些细账,谷歌的报告显示,Gemini处理一条请求需要0.24瓦时。而对比一下,ChatGPT那边报的数字是0.34瓦时。两家的数据在数量级上差不多,看来在能源价格飞涨的今天,没人会在这事上撒谎。
      但等等,应该还不止。
      这些数字只计算了AI回答问题的能耗,还没有算AI学习知识的成本。
      训练模型确实是一次性投资,我多问一个问题,它也不会重新训练一遍,但完全不算也说不过去。考虑到AI 模型每年都会更新换代,针对一个模型的单次训练的实际寿命很可能不超过两年甚至一年,那么比较公平的做法是把训练成本平摊到1年~2年所能处理的请求上。
那么训练有多费电?
      虽然谷歌对训练Gemini的耗能守口如瓶,但我们可以利用OpenAI训练GPT-4时所公布的数据进行估算。
      训练GPT-4动用了25000块Nvidia A100 GPU,连续跑了大约14周。一般来说,训练使用的是8卡服务器,就是每8块GPU装进一台服务器,每两块GPU配置一个PCIe Switch,每2个PCIe Switch 配置一块CPU,再加上6块 NVSwitch、2块存储网卡等。
      整台服务器的最大理论功耗TDP(thermal design power,表示一个硬件在最大理论负载下的功耗)约6500瓦。那么整个训练的服务器能耗就是6500*3125*100*24/1000=48750000 kWh(千瓦时)。
前面我们提过,数据中心还会有冷却电源等日常消耗。业内用PUE(电源使用效率)来衡量这些额外开销,简单来说就是每给服务器用1度电,整个数据中心要用几度电。
      不同的数据中心PUE不同,用于AI计算的新型数据中心通常做过优化,PUE会更小,效率更高。微软的Azure West超算中心算是合适的参考标杆,它的PUE做到了1.12。那么训练一次GPT-4就是48750000*1.12=54600000(千瓦时),也就是5460万度。
5460万度电!
      一个普通三口之家一个月的用电大概是200度~300度,也就是说这些电能让十万个家庭用2个月。
      但先别急着惊呼,GPT-4每天收到10亿条请求,就算保守估计只用一年,那么就是3650亿次请求。
      把GPT-4的训练成本平均到一年的请求量上,那么每次请求只分到0.15瓦时,加上之前的推理成本,也就是说用户朝AI说一次话,能耗成本平均是0.5瓦时的数量级。
0.5瓦时?
      嗯,差不多能让一台30寸的LED显示器亮1分钟吧,或者用1000w的微波炉叮2秒钟饭盒。
      这么一算,好像AI耗能就是个伪命题。单次成本如此低廉,我们几乎可以忽略不计,还有什么好担心的?我那20瓦的大脑因为想不出稿子而焦虑所消耗的能量,都比这要多。
但这正是整个时代向我们描绘的未来中最迷人,也最危险的地方。
      让我们把视线拉回到19世纪的英国。当时,一位叫威廉·斯坦利·杰文斯的经济学家发现了一个奇怪的现象,当詹姆斯·瓦特改良了蒸汽机,大幅提高了烧煤的效率后,英国的煤炭总消耗量非但没有减少,反而以前所未有的速度飙升。
      这就是著名的杰文斯悖论:当技术进步提高了资源利用效率时,反而会导致该资源的总消耗量增加,而不是减少。
      因为蒸汽机变得更高效、更经济,它被应用到了许多从前并未涉及的领域,因此催生了需求的爆炸增长,让时代变革。
      而AI领域正在惊人地重演这一幕。
      以前我们使用大脑,使用计算器,使用搜索引擎与各类软件来完成工作,现在可能连回一封邮件想个朋友圈文案都懒得自己动脑。让AI写小说?真是完美印证了这个悖论,这是一种过去不存在如今却因AI的廉价而创造出的全新需求。
      更可怕的是,这还仅仅只是开始。
      当获取一个答案的成本不可感知时,我们就会要求无数个答案。AI这种完美乙方把每个用户都惯成了自己最讨厌的甲方“再来一版”“还是没有感觉”。
      还有人沉迷于和AI的聊天甚至发疯,以前我只在科幻作品里见过这个。这还只是个人用户,企业级的AI需求则更多,AI美颜、AI长焦相机、AI生成标题等,连如今的搜索引擎都会看似贴心加一段我根本没有要求的AI总结。没办法,不加AI功能的产品没有能向投资方讲述的故事。
      那么,这场由无数个“0.5瓦时”汇聚成的需求,在现实世界中究竟有多庞大?
      根据国际能源机构(IEA)的报告,2024年全球所有数据中心的耗电量为415太瓦时(TWh,即1万亿度电),预计到2026年将超过1000太瓦时。但在报告中,他们其实无法准确判断有多少能耗来源于AI产业,只能通过间接的线索,即以数据中心是否采用AI加速器架构来进行估算。
      2024年,有15%的数据中心采用了加速器的架构,这样算下来AI产业的能耗是约62太瓦时。这个数字正在逐年上升,即使以最保守的估计,都会在2030年增加到200太瓦时。
62太瓦时又是什么概念?
      倘若我们按照之前的,Chatgpt每天处理10亿条请求,乘以365天和0.34瓦时,那么一年的能耗只有0.1太瓦时,把几个主流聊天AI的用量加起来,大概也就1太瓦时。
      算上训练,全球最大的283个大模型的训练能耗加起来也不过1太瓦时,全凑出来只有2太瓦时,62太瓦时的零头。
      结论只有一个:我们日常民用的AI模型只是AI产业能耗冰山上的一角。
      那么,水面下那庞大的、看不见的部分是什么?
      IEA的报告中无法更进一步地分析62太瓦时都被用在了什么地方,这些能耗或许被大公司用来训练新一代的AI模型,或许被小公司用来训练和运行特定的模型,抑或花在了各种没有面市的实验性模型上。我们无法精确地剖析这块冰山,但各大公司的数据和行动已经说明了一切。
      谷歌的2025年环境报告显示,它2024年的能耗较上一年增加了20%,从25太瓦时增加到了32太瓦时,这之中除了Gemini,还包含了各种小型公司所使用的云计算服务。
      而谷歌、微软、Meta纷纷增建数据中心和购买电厂,这本身就表明了他们对行业趋势与能源需求的判断:一个由AI引领的能源需求时代,即将来临。
      所以,我们该怎么办?难道因为耗能,就回到没有AI的石器时代吗?这显然不现实。
      杰文斯悖论的故事并非让我们停下脚步,而是在提醒我们:节流多半没用,人类不会甘心回到过去的苦日子,时代往前进步,靠的一定是开源。
      科技巨头们比谁都清楚这一点。他们疯狂投资可再生能源,甚至自建电厂,在自己的环境年度报告中标榜绿色与低碳。
      他们不是在做慈善,而是在为即将到来的巨浪修建堤坝,否则第一个被淹没的就是他们自己。
      而我们能做的,是在享受便利的同时,保持一份清醒,并要求一个更透明的未来。
      AI行业的能源消耗有不少数据尚未公开,因此连国际能源署对行业未来也有各种差异颇大的估算。这就像去吃一个菜单没有价格的新店,我们只管兴高采烈地点菜,却不知道最后的账单会有多惊人。
      毕竟,我那20瓦的大脑虽然小气,但它至少教会了我一件事——
      天下没有免费的午餐,也没有免费的答案。

Copyright © 武汉市科学技术协会 地址:武汉市江岸区赵家条144号

鄂公网安备: 42010202002213号    ICP备案号: 鄂ICP备19013409号

邮编:430010 电话:(027)65692271 传真:(027)65692036 网站编辑部:(027)82842276