其乐融融的IT技术小站

到2027年,人工智能数据中心的用电量将超过荷兰

新研究表明,到2027年,数据中心人工智能的用电量将与荷兰或瑞典等小国的用电量相当。

预计到2027年,全球每年与人工智能相关的用电量可能会增加85.4-134.0太瓦时。这代表了全球用电量的0.5%左右,数据中心用电量的大幅增长,目前估计占全球用电量的1%到2%。

近年来,数据中心的用电量相对稳定地占全球用电量的1%,不包括加密货币挖矿。2010年至2018年间,全球数据中心电力消耗可能仅增加了6%。人们越来越担心开发和维护人工智能模型、应用所需的计算资源,可能会导致数据中心对全球电力消耗的贡献激增。

在短短几年的时间内,人工智能所消耗的电力可能会与比特币现在的消耗量一样多。虽然人工智能服务器的供应链在不久的将来面临一些瓶颈,这将抑制人工智能相关的电力消耗,但这些瓶颈可能用不了多久就会得到解决,预计到2027年,全球新制造的服务器与人工智能相关的电力消耗可能会增加85.4至134.0太瓦时。这个数字与荷兰、阿根廷和瑞典等国家的年用电量相当。

加密货币估值直线下降,导致采矿量减半。但在气候紧急情况下,比特币的耗电量仍然相当于整个国家的耗电量。虽然大多数注意力都集中在训练人工智能系统所使用的能源上,但其使用的应用或“推理”阶段可能同样耗能。

像百度搜索这样的应用中,人工智能可能会被频繁使用,以至于低功耗推理阶段使用的能量会成倍增加,与训练中使用的能量一样大。

在最坏的情况下,将人工智能应用到百度的搜索中是可能的。将其能源消耗提高到大约爱尔兰的水平,即每年29太瓦时,但指出这样做的巨大成本可能会阻止百度实施它。

人工智能和之前的区块链等新兴技术,都伴随着大量的炒作和对错过的恐惧。这通常会导致创建的应用对终端用户几乎没有任何好处。

然而,由于人工智能是一种能源密集型技术,这也可能导致大量资源浪费。通过退后一步,尝试构建最适合最终用户需求的解决方案(避免强制使用特定技术),可以减少这种浪费的很大一部分。

人工智能不会成为包治百病的灵丹妙药,因为它最终有各种局限性。这些限制包括幻觉、歧视效应和隐私问题等因素。

赞 ()
分享到:更多 ()

相关推荐

内容页底部广告位3
留言与评论(共有 0 条评论)
   
验证码: