活在枫叶国

 找回密码
 立即注册
查看: 333|回复: 3

ChatGPT一年电费高达2亿元,AI 为何如此耗电?

[复制链接]

2万

主题

4万

帖子

12万

积分

论坛元老

Rank: 13Rank: 13Rank: 13Rank: 13

积分
128970
发表于 2024-4-13 19:07:00 | 显示全部楼层 |阅读模式 来自: LAN
CbqeDFbf9090zbAE.jpg

( l% _4 W) [/ T! _) B
; X: G: i, x& T2 A  O- a& Q(来源:由 AI 生成的图片)% x- D5 C( j& A) w4 r

3 V' X' N' \, B+ H# j% F+ i) i& Y, y8 I3 r. p" u
随着ChatGPT引发新一轮人工智能(AI)热潮,而其背后带来的能耗问题也持续引发关注。
1 b$ b8 z9 F' |; C1 g$ N$ ^今年4月10日,芯片巨头 Arm公司CEO哈斯(Rene Haas)公开表示,包括ChatGPT在内的 AI 大模型需要大量算力,预计到2030年,AI 数据中心将消耗美国20%至25%的电力需求,相比今天的4%大幅增加。% [* ?1 }- i! {4 I+ N1 I
公开数据显示,目前,ChatGPT每天需要处理超过2亿次请求,其电量消耗高达每天50万千瓦时。一年时间,ChatGPT光电费就要花2亿元人民币。; [, `& `6 |$ v$ D1 P. S" U9 |
这意味着,ChatGPT日耗电量是普通家庭的1.7万倍以上。(美国商业用电一度约为0.147美元也就是1.06元,相当于一天53万元); W  B% ?9 e. {% u  X+ x& G
据荷兰咨询机构负责人Alex de Vries预计,到2027年,AI 行业每年将消耗850亿~1340亿千瓦时的电力,相当于瑞典或荷兰一个欧洲国家一年的总用电量。8 T$ s' h% M- e/ }* M2 v1 d
马斯克判断,电力缺口最早可能会在2025年发生,“明年你会看到,我们没有足够电力来运行所有的芯片”。9 w0 j/ J' K* I( }: |" Y+ X: t* y
OpenAI CEO奥尔特曼(Sam Altman)也预计,AI 行业正在走向能源危机,未来 AI 技术发展将高度依赖于能源,人们也需要更多的光伏和储能产品。4 e8 v# @, B; C/ C2 K/ G
这一切都显示出,AI 即将引爆全球新一轮“能源战争”。7 F+ _4 J/ G% `+ H0 B9 j/ S
不止是芯片,AI 还被能源“卡脖子”
% \- U- w( a2 _1 c  K' S% v过去500多天里,ChatGPT引发全球新一轮 AI 大模型和算力需求热潮。$ g6 B/ R1 T" X  J7 P1 {/ ]; g
微软、谷歌、Meta、OpenAI等多家全球科技巨头开始疯抢 AI 芯片,甚至亲自下场“造芯”,总规模超过数十万亿元美金。
8 R2 k0 |& _; K+ R& v实际上,AI 本质上是一种计算机技术和处理信息的技术,背后则需要大量GPU芯片,更底层则是大量电能、水力、风能、资金等资源的支持。
, ?- @4 r7 }" v, H, X* ~早在1961年,在IBM公司工作的物理学家拉尔夫·兰道尔(Rolf Landauer)发表了一篇论文,提出了后来被称为“兰道尔原理”(Landauer's Principle)的理论。# ]1 w5 M8 N6 e: c
这一理论认为,计算机中存储的信息发生不可逆的变化时,会向周围环境散发一点点热量,其散发的热量和计算机当时所处的温度有关——温度越高,散发的热量越多。( G8 r- r& Z9 H5 }
兰道尔原理连接起了信息和能量。更具体地说,它连接到了热力学第二定律上。因为逻辑上不可逆的信息处理操作,也就意味着湮灭了信息,这会导致物理世界中熵的增加,从而消耗能量。9 W! Y* g' _- M- ^
这一原理自提出以来遭受过不少质疑。但近十几年来,“兰道尔原理”已被实验证明。
' o, b! p3 ^' ?2 l  R2012年,《自然》杂志发表了一篇文章,研究团队首次测量到了一“位”(bit)数据被删除时释放的微量热量。后来的几次独立实验,也都证明了“兰道尔原理”。
# O, j* ]3 v! C, c过去10多年间,现代电子计算机在计算时实际消耗的能量,是兰道尔理论值的数亿倍。而科学家们一直在努力寻找更高效的计算方法,以降低成本。2 @* R. C( H! R# Y* Q+ i: M
如今,AI 大模型爆发,它确实需要大量计算。因此,AI 不止被芯片“卡脖子”,还被能源“卡脖子”。
( v3 T0 K- E% f& N6 A! ~马斯克近期也在“博世互联世界2024”大会上表示,一年多以前,短缺的是芯片,明年你会看到电力短缺,无法满足所有芯片的需求。/ R4 ^2 z) H9 z5 z8 t
中国科学技术信息研究所人工智能中心副主任李修全也表示,近年来, AI 大模型规模、数量都在高速增长,也带来对能源需求的快速增加。尽管短期内还不会很快出现“缺电”等问题,但未来大规模智能化时代来临后的能源需求激增不容忽视。9 x( C  [  w6 b: i# H5 y! \7 u' e
ZoyzwujHxQoWJYtA.jpg
+ ?5 Z/ O' D1 \" v) d

2 N: S  c5 @# a2 k3 ^
6 D/ J. Q# e2 l- }; {; D2 Z6 |! o* k" ^! q. V
AI 大模型质量的关键在于数据、算力和顶尖人才,而高算力的背后,是靠着数万张芯片昼夜不停的运转支撑。& ?% S! ~( ?, w9 o- k
具体来说,AI 模型算力的工作过程大致可以分为训练、推理两个阶段,能源消耗也是如此。
0 R7 t/ \; O% O1 M: x+ O, l其中,在AI训练阶段,首先需要收集和预处理大量的文本数据,用作输入数据;其次,在适当的模型架构中初始化模型参数,处理输入的数据,尝试生成输出;最后,通过输出与预想之间的差异反复调整参数,直到模型的性能不再显著提高为止。" w" A9 y: u8 X; I$ K8 @: E
从训练15亿参数的GPT-2,到训练1750亿参数的GPT-3,OpenAI模型背后的训练能耗十分惊人。公开信息称,OpenAI 每训练一次需要128.7度电,相当于 3000 辆特斯拉同时跑 32 公里。
! m' z8 X7 @6 d' A+ _据研究机构New Street Research估计,仅在AI方面,谷歌就需要大约40万台服务器,每天消耗62.4吉瓦时,每年消耗22.8太瓦时的能源。
' N  }. }9 [2 K  H% Q! U( I8 p而在推理阶段,AI 则会先加载已经训练好的模型参数,预处理需要推理的文本数据,再让模型根据学习到的语言规律生成输出。谷歌称,从2019年到 2021年,AI相关能源消耗60%都来自推理。1 p. C/ v' k' \! y" J9 u8 j. x
据Alex de Vries估算,ChatGPT每天大概要响应大约2亿个请求,耗电量超过50万度,按照一年电费就是2亿元人民币,比每个美国家庭的平均日用电量高1.7倍。- c- B2 A6 f5 S$ D3 y. l
SemiAnalysis报告称,使用大模型进行问题搜索所消耗的能源是常规关键词搜索的10倍。以谷歌为例,标准谷歌搜索使用0.3Wh电力,而大模型每次互动的耗电量为3Wh。如果用户每次在谷歌搜索都使用AI工具,每年大约需要29.2太瓦时的电力,也就是每天约7900万度。这相当于给全球最大的摩天大楼,迪拜的哈利法塔,连续供电超过300年。2 Y) D2 I  i( D  ?( c
另据斯坦福人工智能研究所发布的《2023年 AI 指数报告》显示,每次 AI 搜索的耗电量大约为8.9瓦时。相比普通谷歌搜索,加入 AI 的单次耗电量几乎是一般搜索的30倍。而一个高达1760亿参数的模型,光是前期训练阶段就得用掉了43.3 万度电,相当于美国117个家庭一年的用电量。) v, R8 O5 u+ k& o
值得注意的是,在Scaling Law(缩放规律)之中,随着参数规模不断跃升,大模型性能也不断提升,而对应的是,能耗也会越来越高。# u) E( D! g" v: M4 M) r
因此,能源问题已经成为 AI 技术持续发展的关键“桎梏”。5 w! d3 r) K4 @) \# d( B7 T
GPT每天消耗50000升水,电和水是 AI 两大能源需求& |- g3 t4 p! S( x1 M
AI不仅是“耗电狂魔”,更是“吞水巨兽”。% y3 B5 \2 w" v, C% y+ Y8 Z) ]
其中,在电力方面,除了上述信息外,据国际能源署(IEA)数据显示,2022年,全球数据中心消耗约460太瓦时的电量(相当于全球总需求的2%),随着生成式AI飞速发展,这一数字到2026年可能膨胀至620至1050太瓦时。
' X- x8 Z- s7 a* z6 e6 |! d' X  aAlex de Vries预计,到2027年,AI服务器所消耗的用电量将等同于荷兰全国的能源需求量。最坏的情况就是,仅谷歌一家公司的AI就可以消耗与爱尔兰等国家一样多的电力。7 T" U+ }7 V8 t, o0 {' [% C4 t0 @* o
IBM高级副总裁达里奥·吉尔曾表示,“AI能耗”是非常重要的挑战。生成式 AI 的高性能服务器的持续运行,将导致数据中心一半以上的电力消耗都被AI占据。据悉,预计到2025年,AI 业务在全球数据中心用电量中的占比将从2%猛增到10%。
0 k; ~/ G1 R, S8 ]% f那么,水能呢?大模型背后需要数据中心、云基础设施的支持,那就需要大量的“液冷”进行散热。+ h: W2 |4 Q( W4 u* A+ Z
得克萨斯大学的一份研究指出,作为ChatGPT背后的重要支持力量,微软的Microsoft Azure云数据中心光是训练GPT-3,15天就用掉将近70万升的水,相当于每天花销约50000L水。1 G9 G0 z3 k# a  W$ ^6 M
同时,ChatGPT每回答50个问题就要消耗500毫升水。公开信息称,2022年微软用水量达到640万立方米,比2500个奥林匹克标准游泳池的水量还多。
0 ?. z3 G9 `3 x4 d- i美国加州大学河滨分校副教授任绍磊团队预计,到2027年,全球AI可能需要4.2-66亿立方米的清洁淡水量,这比4-6个丹麦、或二分之一的英国的一年取水总量还要多。
: Z  w: C" k. F2 q6 _& A除了数据中心,内置的GPU芯片也是能源消耗的重点领域之一。今年3月,英伟达发布史上性能最强AI芯片——Blackwell GB200,宣称是A100/H100系列AI GPU的继任者,性能相比H100提升30倍,但能耗却降低了25倍。
% i2 U" s4 ~9 g8 C5 E$ V上个月,黄仁勋的一句“AI的尽头是光伏和储能”更是在网络疯传。尽管有网友扒出原视频称,黄仁勋本人并未说过这句话,更没有提及“光伏和能源”,但 AI 能耗严重,却是摆在公众面前的事实。
5 X6 {/ b! w$ }9 V, A国际能源机构(IEA)在一份报告中强调了这个问题,全球 AI 数据中心的耗电量将是 2022 年的十倍,并指出部分原因在于 ChatGPT 这样的大模型所需的电力,远高于谷歌等传统搜索引擎。% e% }4 F& C8 S; S' ?; N$ q
不过,值得注意的是,由于科技巨头们并未正式披露过 AI 使用中的电力消耗数据,因此,目前关于 AI 耗电量的数据多为估算,并不一定是非常准确的数据。美国信息技术与创新基金会(ITIF)曾指出,个别不准确的研究高估了AI能耗。AI训练是一次性事件,它的使用是长期过程。人们应关注 AI 能耗的长期影响,并非爆发式增长。
5 r* `& r2 ]* O$ |有专家认为,目前大模型训练成本中60%是电费,能源开支已经严重制约着大模型的迭代升级。. o3 f) X5 S1 ~& n: @5 _. h: W
金沙江创投主管合伙人朱啸虎近日也表示,可控核聚变实现前,我们并没有足够的算力实现真正的AGI。帮人类降低90%的工作可能未来3到5年可以实现,但最后的10%可能需要大量的算力和能耗。
* X( t1 v# f! y如何解决 AI 能耗之困?硬件优化和核聚变或是重要手段
; ?6 w2 v/ B. C. f% b, Z# X虽然黄仁勋也非常担忧能源供给,但他却给出了一个更乐观的看法:过去10年,AI 计算提高了100万倍,而它消耗的成本、空间或能源并未增长100万倍。
( L! j/ T& f5 \7 b, N2 o5 J3 {: p美国能源情报署发布的长期年度展望中估计,美国目前电力需求的年增长率不到1%。而按新能源公司NextEra Energy CEO约翰•凯彻姆(John Ketchum)的估计,在 AI 技术的影响下,这一电力需求年增长率将加快至1.8%左右。( e7 S/ s; ^4 n6 u4 ]; y5 R
波士顿咨询集团的报告则显示,2022年,数据中心用电量占美国总用电量(约130太瓦时)的 2.5%,预计到2030年将增加两倍,达到7.5%(约390太瓦时)。这相当于约4000万个美国家庭的用电量,即全美三分之一家庭的用电量。该集团还预计,生成式 AI 将至少占美国新增用电量的1%。/ b! U, {1 I% C! Q2 N
这意味着,即使数据中心、AI 新增用电量并不小,但还远不到毁天灭地的地步。
4 U( O4 W- D7 K3 f7 f* r  O: s' S* F而在成本方面,国际可再生能源署报告指出,过去十年间,全球风电和光伏发电项目平均度电成本分别累计下降超过了60%和80%。上述业界人士也介绍说,“光伏的综合成本跟火电差不多,风电一半区域的综合成本比火电低了。”
- V3 E* b# ~) M% @: l因此,随着 AI 技术一路狂飙,我们又将如何应对即将到来的能源需求热潮?
; M) \$ x6 Z3 r2 a; Z, h( y# t2 N- a钛媒体App根据一些行业专家的观点总结来看,目前解决 AI 能耗问题有两种方案:一是可以通过大模型或AI硬件优化降低能耗;二是寻找新的能源,比如核聚变、裂变资源等,以满足AI能耗需求。+ ~& E) t1 z& J! F5 c* y
其中,在硬件优化方面,对于能耗较高的万亿级 AI 大模型,可以通过算法和模型优化,压缩模型token大小及复杂度,以降低能源消耗规模;同时,企业也可以持续开发和更新能耗更低的 AI 硬件,如最新的英伟达B200,AI PC或AI Phone终端等;此外,通过优化数据中心的能效,提高电源使用效率,以降低能源消耗。
9 m0 p0 j& E9 l4 n1 c对此,中国企业资本联盟副理事长柏文喜表示,未来,还需要进行技术创新和设备升级,以进一步提高发电效率、提高电网输送能力和稳定性、优化电力资源配置、提高电力供应的灵活性、推广分布式能源系统并减少能源输送损耗,以此来应对算力发展带来的能源需求挑战。" W' Y! [/ }# j( b3 Z0 I2 k
中国数据中心工作组(CDCC)专家委员会副主任曲海峰认为,相关行业应该要重视提升数据中心用电能效,而不是抑制它的规模。数据中心并非要减少对能源的消耗,而是要提升能源消费的质量。
: q7 b2 U0 [: n) d而在开发核聚变能源方面,由于可控核聚变由于原料资源丰富、释放能量大、安全清洁、环保等优势,能基本满足人类对于未来理想终极能源的各种要求。: b7 q0 N6 z% b; W3 G  ?/ N
核聚变的能量来源目前主要有三种:宇宙能源,即太阳发光发热;氢弹爆炸(不受控核聚变);人造太阳(受控核聚变能源装置)。' I- d( b& C/ P7 W2 e
据统计,当前世界共有50多个国家正在进行140余项核聚变装置的研发和建设,并取得一系列技术突破,IAEA预计到2050年世界第一座核聚变发电厂有望建成并投入运行。0 e* R) m. M* m
这种核聚变发电,将大大缓解全球因 AI 大模型需求造成的能源短缺情况。+ Z& ^/ O9 f; M* h
2023年4月,奥尔特曼就“未雨绸缪”,以个人名义向核聚变初创公司Helion Energy投资3.75亿美元(约合人民币27.04亿元),并担任公司董事长。同时,去年7月,奥特特曼还通过旗下公司AltC与其投资的核裂变初创公司Oklo合并,斩获了一个估值约为8.5亿美元(约合人民币61.29亿元)的IPO,ALCC最新市值超过400亿美元。) b# ?; q7 A) }) ~
除了奥尔特曼这种重金投资核聚变公司,亚马逊、谷歌等科技巨头则直接大手笔采购清洁能源。# f4 \& L! l; Y. K! ]/ ?$ `, Q
据彭博数据显示,仅在2023年,亚马逊就购买了8.8GW(吉瓦)的清洁能源电力,已经连续第 4 年成为全球最大的企业清洁能源买家。Meta(采购3GW)和谷歌(采购1GW)等科技公司则位列其后。/ q8 j% p, B& J5 \, _
亚马逊称,其90%以上的数据中心电力都来源于清洁能源产生的电力,预计能在2025年实现100%使用绿色电力。
6 b) E, X7 @0 s# w" ]$ t实际上,以美国为例。清洁能源、AI、数据中心、电动汽车、挖矿等多种产业的增长,让原本陷入停滞的美国电力需求再度“起飞”。但即使被誉为世界上“最大的机器”,美国电网也似乎无法应对这突如其来的变化。1 J# I( N+ Z3 n; `
有分析师指出,美国70%的电网接入和输配电设施已老化,某些地区电网传输线路不足。因此,美国电网需要大规模升级,如果不采取行动,到2030年美国将面临一道难以逾越的国内供应缺口。5 D8 {, `/ O9 _
相对于美国,中国则对能源需求表达乐观态度。“AI再耗电,中国的体量和能力足以支撑,现在不进行大规模开发,是因为没需求。”一位风电行业人士表示,中国可规划的容量足够大,AI要是有大量电力需求,我现在就能上项目当中去工作。
5 `0 {& v! G8 y- ~9 Y; s5 L( j目前,中国风电、光伏产品已经出口到全球200多个国家和地区,累计出口额分别超过334亿美元和2453亿美元。
" i' C. x& ]- @% ~' R随着 AI 呈现爆发式增长,这场中美 AI 产业角逐,已经从大模型技术比拼,升级成为一场算力、能源、人力等多方位争夺战。
0 o  N* q9 S! Y  @8 d随着核聚变能源或将到2050年落地,人类期望终结 AI 能耗这一具有挑战性难题,进入无限发电时代。
  E' V( `, P1 C' h1 G(本文首发钛媒体App,作者|林志佳。张盈对本文亦有贡献)7 C" M4 c$ F, [+ K, o9 b! q' q! X& R
4 o  D0 a7 c$ c

. R  s* G1 z) |! ~

    ( h, u6 d$ m& }9 d. E
  • JVVYxN6VsONyzYSc.jpg
    : p) z$ o( @& P8 K2 a
    # ?" \4 v' H# x" R9 w
    - Z' D5 R5 E! `
    * w$ E* a, F/ N/ X
  • Y1429ukCCw29c9RC.jpg
    3 d  P8 h0 d$ }& M; P' C9 O7 Q
    & F9 R4 J* H, B) E% H3 x
    & K- N' a" X* D9 @
    6 S; H3 j# _7 N1 H6 w6 ^
3 @9 `4 R& F4 r  }+ H0 q, p5 d

3 m- Q5 i( k6 v- U查看原图 1.32M 2 B/ K4 e: `- A0 F  z; w% D8 _
    6 ]8 I5 {# o0 X8 M! o5 Z
  • gj6idkkk5lJJDJlz.jpg

    % K: [( v, h( [/ h
  • talB82n2dn3DwiS2.jpg

    ' T, {5 t8 J! v. U
【郑重声明】活在枫叶国刊载此文不代表同意其说法或描述,仅为提供更多信息,也不构成任何投资或其他建议。转载需经本网同意并注明出处。本网站有部分文章是由网友自由上传,对于此类文章本站仅提供交流平台,不为其版权负责;部分内容经社区和论坛转载,原作者未知,如果您发现本网站上有侵犯您的知识产权的文章,请及时与我们联络,我们会及时删除或更新作者。
回复

使用道具 举报

2万

主题

4万

帖子

12万

积分

论坛元老

Rank: 13Rank: 13Rank: 13Rank: 13

积分
128970
 楼主| 发表于 2024-4-13 19:27:00 | 显示全部楼层 来自: LAN
媒体人的嘴真能跑火车,前几天有报道AI仅做一次训练就要耗 2.4亿度电,折合工业电价是 2.4亿元,此报道一年才2亿。
【郑重声明】活在枫叶国刊载此文不代表同意其说法或描述,仅为提供更多信息,也不构成任何投资或其他建议。转载需经本网同意并注明出处。本网站有部分文章是由网友自由上传,对于此类文章本站仅提供交流平台,不为其版权负责;部分内容经社区和论坛转载,原作者未知,如果您发现本网站上有侵犯您的知识产权的文章,请及时与我们联络,我们会及时删除或更新作者。
回复 支持 反对

使用道具 举报

2万

主题

4万

帖子

12万

积分

论坛元老

Rank: 13Rank: 13Rank: 13Rank: 13

积分
128970
 楼主| 发表于 2024-4-13 19:47:00 | 显示全部楼层 来自: LAN
商业不怕贵,,挣钱就行,,五星级酒店成本都很高。。。
【郑重声明】活在枫叶国刊载此文不代表同意其说法或描述,仅为提供更多信息,也不构成任何投资或其他建议。转载需经本网同意并注明出处。本网站有部分文章是由网友自由上传,对于此类文章本站仅提供交流平台,不为其版权负责;部分内容经社区和论坛转载,原作者未知,如果您发现本网站上有侵犯您的知识产权的文章,请及时与我们联络,我们会及时删除或更新作者。
回复 支持 反对

使用道具 举报

2万

主题

4万

帖子

12万

积分

论坛元老

Rank: 13Rank: 13Rank: 13Rank: 13

积分
128970
 楼主| 发表于 2024-4-13 20:07:00 | 显示全部楼层 来自: LAN
商业不怕贵,,挣钱就行,,五星级酒店成本都很高。。。
【郑重声明】活在枫叶国刊载此文不代表同意其说法或描述,仅为提供更多信息,也不构成任何投资或其他建议。转载需经本网同意并注明出处。本网站有部分文章是由网友自由上传,对于此类文章本站仅提供交流平台,不为其版权负责;部分内容经社区和论坛转载,原作者未知,如果您发现本网站上有侵犯您的知识产权的文章,请及时与我们联络,我们会及时删除或更新作者。
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

手机版|小黑屋|活在枫叶国

GMT-5, 2024-11-2 05:22 , Processed in 0.020738 second(s), 37 queries .

Powered by 活在枫叶国

www.canadaasians.com

快速回复 返回顶部 返回列表