最近,人工智能(AI)技术的迅速发展引起了广泛的关注和讨论。一些人担忧AI技术的进步可能导致能源消耗的急剧增加,而另一些人则以幽默的方式表达了对这一问题的担忧,认为只要电费价格高于基础食物(如馒头),AI就无法完全取代人类。尽管这是一种夸张的表达方式,但它反映了人们对于AI能耗问题的真实担忧,担心这可能成为限制AI发展的瓶颈。
技术创业者和前工程师凯尔·科比特在社交媒体上提出了一个具体的问题,即AI的能耗问题。他提到,微软的工程师们正在努力构建一个互联的基础设施网络(IB网络),将分布在不同地区的H100芯片连接起来。这项任务非常复杂,但他们不得不这样做,因为如果在同一地区部署超过10万块H100芯片,当地电网可能会承受不住压力而崩溃。
那么,为什么集中部署这么多芯片会导致电网崩溃呢?我们可以通过一些简单的计算来理解这一点。根据网站公布的数据,每块H100芯片的峰值功率为700瓦特,那么10万块芯片的峰值功率可达7000万瓦特。能源行业从业者在X评论区指出,这样的总能耗将相当于一个小型或中型发电厂的全部输出。除此之外,我们还需要考虑到芯片配套设施的能耗,包括服务器和冷却设备。这些耗电设施集中在一个小区域,对电网的压力是巨大的。
AI的能耗问题只是冰山一角。据《》报道,AI的每日耗电量可能超过50万千瓦时。虽然这个数字看起来惊人,但目前AI的耗电量仍然远远低于加密货币和传统数据中心的消耗。微软工程师遇到的难题也表明,制约AI发展的不仅是技术本身的能耗,还包括配套基础设施的能耗和电网的承载能力。2022年,全球数据中心、人工智能和加密货币的耗电量达到了460TWh,占全球能耗的近2%。国际能源署(IEA)预测,在最糟糕的情况下,到2026年这些领域的用电量将达到1000TWh,相当于整个日本的用电量。
目前,直接投入AI研发的能耗远低于数据中心和加密货币。英伟达在AI服务器市场中占据约95%的份额,2023年供应了约10万块芯片,每年耗电量约为7.3TWh。在2022年,加密货币的能耗为110TWh,相当于整个日本的用电量。
数据中心的冷却能耗不容忽视。数据中心的能效通常用PUE(功率使用效率)来评估,即消耗的所有能源与IT负载消耗的能源的比值。PUE越接近1,表明数据中心浪费的能源越少。UptimeInstitute的报告显示,2020年全球大型数据中心的平均PUE约为1.59。这意味着,数据中心的IT设备每消耗1度电,其配套设备就消耗0.59度电。数据中心的额外能耗中,绝大部分用于冷却系统。一项调查研究显示,冷却系统消耗的能量可达数据中心总能耗的40%。随着芯片更新换代,单台设备的功率增大,数据中心的功率密度不断提升,对散热提出了更高的要求。但与此同时,通过改进数据中心设计,就能大幅减少能量的浪费。
不同数据中心的能效比差异很大,这取决于冷却系统、结构设计等各方面的差异。UptimeInstitute的报告显示,有些国家的能效比已经降到了1.46,而在其他国家,超过十分之一的数据中心能效比超过2.19。世界各国正在采取措施,敦促数据中心实现节能减排的目标。
科技公司用电,节流难开源更难。随着加密货币和AI的发展,各大科技公司的数据中心规模不断扩大。据国际能源署统计,在2022年美国拥有2700座数据中心,消耗了全国用电量的4%,并预测这一比例到2026年将达到6%。随着美国东西海岸用地越发紧张,数据中心逐步向中部地区转移,但这些二线地区原有的产业并不发达,电力供应可能无法满足需求。一些技术公司尝试摆脱电网的束缚,直接从可再生能源购买电能,但这种用电方式和新建都要面临成本和实施的挑战。
AI的能耗问题是一个复杂的问题,涉及到技术发展、基础设施建设和电网承载能力等多个方面。随着技术的进步和社会对能源效率要求的提高,我们需要找到平衡点,以实现AI技术的可持续发展。
本文来自作者[sxkxdz]投稿,不代表快芯号立场,如若转载,请注明出处:https://vip.sxkxdz.com/zixue/202412-120790.html
评论列表(4条)
我是快芯号的签约作者“sxkxdz”!
希望本篇文章《不断攀升的能源需求背后揭示的潜在风险 AI对全球电力消耗的影响 (不断攀升的能力是什么)》能对你有所帮助!
本站[快芯号]内容主要涵盖:国足,欧洲杯,世界杯,篮球,欧冠,亚冠,英超,足球,综合体育
本文概览:最近,人工智能,AI,技术的迅速发展引起了广泛的关注和讨论,一些人担忧AI技术的进步可能导致能源消耗的急剧增加,而另一些人则以幽默的方式表达了对这一问题的担忧,认为只要电费价格...