🎉 亲爱的广场小伙伴们,福利不停,精彩不断!目前广场上这些热门发帖赢奖活动火热进行中,发帖越多,奖励越多,快来 GET 你的专属好礼吧!🚀
🆘 #Gate 2025年中社区盛典# |广场十强内容达人评选
决战时刻到!距离【2025年中社区盛典】广场达人评选只剩 1 天,你喜爱的达人,就差你这一票冲进 C 位!在广场发帖、点赞、评论就能攒助力值,帮 Ta 上榜的同时,你自己还能抽大奖!iPhone 16 Pro Max、金牛雕塑、潮流套装、合约体验券 等你抱走!
详情 👉 https://www.gate.com/activities/community-vote
1️⃣ #晒出我的Alpha积分# |晒出 Alpha 积分&收益
Alpha 积分党集合!带话题晒出你的 Alpha 积分图、空投中奖图,即可瓜分 $200 Alpha 代币盲盒,积分最高直接抱走 $100!分享攒分秘籍 / 兑换经验,中奖率直线上升!
详情 👉 https://www.gate.com/post/status/12763074
2️⃣ #ETH百万矿王争霸赛# |ETH 链上挖矿晒收益
矿工集结!带话题晒出你的 Gate ETH 链上挖矿收益图,瓜分 $400 晒图奖池,收益榜第一独享 $200!谁才是真 ETH 矿王?开晒见分晓!
详情 👉 https://www.gate.com/pos
AI迅速推高数据中心价格:硅谷空置率接近历史低点,云计算成本也飞涨
伴随年初微软支持的ChatGPT大火,以及谷歌、Meta等一众竞争对手快速推出大语言模型(LLM)和生成式人工智能竞品,AI俨然正在快速推进至人类生活的更多方面,相关需求也水涨船高。
鲜为人知的是,AI大火还带动了数据中心成本飙升,最新报道便点明:“与运行人工智能数字运算相关的能源使用,正迅速成为数据中心费用上涨的关键驱动因素。”
对人工智能的需求飙升,令一些数据中心的运营商们趁机提高商业租赁价格,以应对为运行日益能源密集型工作负载的计算机服务器组群(stack)供电和散热而产生的额外成本。
据全球最大商业房地产服务公司之一的世邦魏理仕(CBRE Group)统计,数据中心客户囊括了小型企业到大型云服务供应商,目前消耗电力的速度快于数据中心运营商扩展容量的速度。由于人工智能用例的增加,供应限制日益严重,这为数据中心收取的价格带来了上行压力。
例如,在拥有超过275个设施的全球最大数据中心市场——美国北弗吉尼亚州,今年可供租赁的电量从一年前的46.6兆瓦减少至38.4兆瓦,降幅高达17.6%,而总体电量库存实际同比增长了19.5%至2132兆瓦,主要由于用于训练生成式AI模型的GPU功耗很大且在快速增加。
此外,与AI需求相关的额外功率还需要辅以更先进的硬件冷却系统,这些制冷系统不仅能耗很高,往往比传统的空气冷却器更昂贵且占地面积更大,均属于人工智能推高数据中心价格的动因之一。
同时,在AI需求旺盛的当下,数据中心客户支付的电费也更为高昂。市场研究公司Synergy Research Group的首席分析师John Dinsdale坦言,数据中心运营商正将运行AI应用程序产生的额外成本直接转嫁到客户身上。
据世邦魏理仕统计,今年前三个月,美国北弗吉尼亚州的数据中心客户每月每千瓦电力支付的费用高达140美元,比一年前的130美元增长了7.7%。在硅谷,数据中心的空置率目前处于接近历史低点的2.9%,客户每千瓦每月最高电价攀升至250美元,较去年的175美元猛增了43%。
据介绍,人工智能应用程序比传统软件消耗更多的能量,因为它们旨在读取更大量的数据。几天之内,单个人工智能模型可能会消耗数万千瓦时的电力,而生成式AI模型可比标准AI工具再大100倍。市场研究公司Enterprise Technology Research今年对约500名企业IT决策者进行了调查,其中有一半以上都表示,计划评估、部署或投入更多资源用于类似ChatGPT的生成式AI技术。
还有分析指出,由于许多云供应商也租赁数据中心的空间,随着越来越多的公司采用生成式人工智能,不断上涨的数据中心成本可能会导致更高的云计算费用。鉴于生成式AI工作负载需要更多的计算,势必更广泛地影响数据中心的能源效率和冷却系统,即影响会遍及行业的方方面面。
据兰洋科技的科普文章,业内普遍认为,数据中心能耗高、能耗增长快,占我国能源消费比重逐年提高。数据中心的能耗消费特点是较为集中,除IT设备外,制冷系统等辅助设施能耗比例高:
而能耗也直接与运营成本相关。据咨询机构Tirias Research建模预测,到2028年数据中心功耗将接近4250兆瓦,比2023年增加212倍,数据中心基础设施加上运营成本总额或超760亿美元。
该机构称,生成式AI带来的种种创新功能,都是以处理性能和功耗方面的高昂成本为代价。因此,虽然人工智能的潜力可能是无限的,但物理和成本最终可能是界限。
为了降低成本,该机构建议,可使用高度优化、甚至是更简单、更专业的小型神经网络模型来降低数据中心成本,方法是减少云端的模型规模,将海量参数网络用于快速训练较小的模型,并将工作负载完全移出云端,从而将生成式AI应用程序更加经济高效地分发给智能手机、PC、车辆和移动XR产品等分布式平台上运行: