人工智能的迅速崛起带来了一系列社会和经济问题,其中能耗问题尤其引人注目。人们对AI的高能耗可能带来的影响感到忧虑,担心这会成为限制AI发展的瓶颈。前工程师凯尔·科比特在社交媒体上分享了他的观点,他指出,在训练如GPT-6这样的高级AI模型时,能耗问题尤为突出。微软的工程师们不得不构建一个复杂的IB网络,将分布在不同地区的10万块H100芯片连接起来,以避免对单一地区的电网造成过大压力。
根据图库版权图片上的数据,每块H100芯片的峰值功率为700W,那么10万块H100芯片的峰值功率就能达到7000万W。能源行业从业者指出,这个能耗水平相当于一座小型或中型发电厂的全部输出。除了芯片本身,还需要考虑服务器和冷却设备的能耗。这些设施如果集中在一小块区域内,对电网的压力可想而知。
《》的报道曾引起广泛关注,该报道估算AI的日耗电量可能超过50万千瓦时。尽管这个数字已经非常惊人,但与加密货币和传统数据中心相比,AI的耗电量仍然相对较低。微软工程师遇到的难题表明,限制AI发展的不仅仅是技术本身的能耗,还包括配套基础设施的能耗和电网的承载力。据统计,2022年全球数据中心、人工智能和加密货币的耗电量达到了460TWh,占全球能耗的近2%。国际能源署(IEA)预测,在最糟糕的情况下,到2026年这些领域的用电量将达到1000TWh,相当于整个西班牙的用电量。
直接投入AI研发的能耗远低于数据中心和加密货币。英伟达在AI服务器市场中占据约95%的份额,2023年供应了约10万块芯片,每年耗电量约为7.3TWh。而在2022年,加密货币的能耗为110TWh,与整个西班牙的用电量相当。
数据中心的能效通常用PUE(能耗效比)来评估,即消耗的所有能源与IT负载消耗的能源的比值。全球大型数据中心的平均PUE约为1.59,这意味着数据中心的IT设备每消耗1度电,其配套设备就消耗0.59度电。其中,冷却系统消耗的能量可达数据中心总能耗的40%。随着芯片更新换代,数据中心的功率密度不断提升,对散热的要求也越来越高。
尽管不同数据中心的能效比差异很大,但世界各国正在采取措施,敦促数据中心实现节能减排的目标。例如,日本的数据中心已经把PUE降到了1.46,而在美国仍有超过十分之一的数据中心PUE超过2.19。
随着加密货币和AI的发展,各大科技公司的数据中心规模不断扩大。据国际能源署统计,2022年美国拥有2700座数据中心,消耗了全国用电量的4%,并预测这一比例到2026年将达到6%。美国东西海岸用地紧张,数据中心逐步向中部地区转移,但这些地区原有的产业并不发达,电力供应可能无法满足需求。一些技术公司尝试直接从供应商购买电能,但这种用电方式和新建数据中心都面临着挑战。
AI能耗问题是一个复杂的挑战,涉及到技术发展、基础设施建设、电网承载力以及全球能源政策等多个方面。随着AI技术的不断进步和应用领域的扩大,能耗问题将成为一个长期且必须面对和解决的问题。
本文来自作者[sxkxdz]投稿,不代表快芯号立场,如若转载,请注明出处:https://vip.sxkxdz.com/zixue/202412-121473.html
评论列表(4条)
我是快芯号的签约作者“sxkxdz”!
希望本篇文章《AI技术革命 全球电力消耗激增困境下的更加隐蔽危机 (ai技术革命的三个特征)》能对你有所帮助!
本站[快芯号]内容主要涵盖:国足,欧洲杯,世界杯,篮球,欧冠,亚冠,英超,足球,综合体育
本文概览:人工智能的迅速崛起带来了一系列社会和经济问题,其中能耗问题尤其引人注目,人们对AI的高能耗可能带来的影响感到忧虑,担心这会成为限制AI发展的瓶颈,前工程师凯尔·科比特在社交媒体...