人工智能(AI)技术的飞速发展和普及正在引起全球的广泛关注和讨论。一方面,人们担忧AI技术的高能耗可能成为其发展的瓶颈,另一方面,也有人认为AI能耗问题被过度夸大。本文将详细分析AI能耗问题,探讨其对AI发展的影响,并考察当前的解决方案和未来的挑战。
AI能耗问题的严重性
AI技术的能耗问题已经引起了业界的关注。如前工程师凯尔·科比特所提到,微软工程师在训练GPT-6时,因大量H100芯片集中部署可能导致电网崩溃而不得不分散连接。H100芯片的峰值功率为700W,10万块的峰值能耗可达7000万W,相当于一座小型发电厂的全部输出。这不仅包含了芯片本身的能耗,还包括了服务器和冷却系统的能耗。
AI与其他耗电大户的对比
尽管AI耗电量看似巨大,但相较于加密货币和传统数据中心,其能耗仍然较低。全球数据中心、人工智能和加密货币的耗电量在2022年达到了460TWh,占全球能耗的近2%。国际能源署(IEA)预测,在最糟糕的情况下,到2026年这些领域的用电量将达到1000TWh。目前,AI在英伟达AI服务器市场上占据约95%的份额,2023年供应了约10万块芯片,每年耗电量约为7.3TWh。与此相比,2022年加密货币的能耗为110TWh,与一些小国的总用电量相当。
数据中心的能耗与能效
数据中心的能效通常用PUE(Power Usage Effectiveness)值来评估,即IT负载消耗的能源与数据中心消耗的所有能源的比值。PUE值越接近1,表明数据中心浪费的能源越少。UptimeInstitute的报告显示,2020年全球大型数据中心的平均PUE约为1.59。数据中心的额外能耗中,绝大部分应用于冷却系统,一项调查显示冷却系统消耗的能量可达数据中心总能耗的40%。随着芯片更新换代,功率密度不断提升,对散热提出了更高的要求。
节能措施与政策
不同国家的数据中心能效比差异很大。例如,日本已经把PUE降到了1.46,而美国仍有超过十分之一的数据中心PUE超过2.19。世界各国正在采取措施敦促数据中心实现节能减排,如要求大型数据中心设立余热回收设备,美国政府注资研发更高能效的半导体,中国政府要求数据中心从2025年起PUE不高于1.3,并将可再生能源使用比例逐年上调,到2032年达到100%。
科技公司的电力挑战
随着加密货币和AI的发展,科技公司的数据中心规模不断扩大,导致电力消耗增加。据国际能源署统计,在2022年美国拥有2700座数据中心,消耗了全国用电量的4%,并预测这一比例到2026年将达到6%。随着用地紧张,数据中心逐步向中部地区转移,而这些地区的电力供应可能无法满足需求。一些技术公司尝试直接从可再生能源购买电能,但这需要大量的投资和新的基础设施建设。
AI能耗问题是多方面的,涉及技术、基础设施、电网承载力等多个层面。随着AI技术的不断进步和应用的扩大,其能耗问题必将成为未来需要重点关注和解决的关键问题。同时,全球范围内的政策和措施也在不断推进,旨在降低AI和数据中心的能耗,实现可持续发展。
本文来自作者[sxkxdz]投稿,不代表快芯号立场,如若转载,请注明出处:https://vip.sxkxdz.com/zixue/202412-121128.html
评论列表(4条)
我是快芯号的签约作者“sxkxdz”!
希望本篇文章《全球电力消耗激增 AI发展迅猛 能源危机愈发严峻 (全球电力消耗排行)》能对你有所帮助!
本站[快芯号]内容主要涵盖:国足,欧洲杯,世界杯,篮球,欧冠,亚冠,英超,足球,综合体育
本文概览:人工智能,AI,技术的飞速发展和普及正在引起全球的广泛关注和讨论,一方面,人们担忧AI技术的高能耗可能成为其发展的瓶颈,另一方面,也有人认为AI能耗问题被过度夸大,本文将详细分...