Custom Thumbnail
题图:Bloomberg

需求冲击,人工智能需要更多能源、芯片、数据、土地和水……

企业、投资者和社会都需要为即将到来的需求冲击做好准备。

生成式AI表面上看很简单:向ChatGPT提问,它就会作答。但深入了解后,会发现每个任务都依托于海量的资源消耗:数百万名工程师、标记员和模型训练人员,足以供应多个国家的电力,遍布全球的大型数据中心园区,庞大的电力线网络和互联网电缆,以及水、土地、金属和矿物。人工智能需要这一切,而且需求只会与日俱增。

研究显示,处理一次ChatGPT查询所需的电力约为传统谷歌搜索的十倍。普通搜索引擎只需从已建立的大型索引中获取网络内容。而最新的AI产品则依赖“大型语言模型”(LLMs),这些模型需要处理数十亿字的文本输入,包括从莎士比亚全集到美联储的最新预测。通过检测模式和关联,这些模型形成数以百亿计的参数用来模仿人类行为。借助这些模型,ChatGPT等产品能够创造新内容,这就是“生成式AI”一词的由来。

可以说,AI是一个资源密集型产业,而这一特性正在主导竞争的输赢。掌握最多资源的机构将拥有最先进的AI系统,这引发了对稀缺资源和芯片使用权的激烈争夺。科技公司被迫寻求更高效的AI开发方式,并向核聚变等替代能源解决方案投入数十亿美元。这些方案此前因缺乏资金和技术突破而发展缓慢。同时,AI的需求也加剧了对化石燃料发电的依赖,而这可能导致全球超出应对气候变化的关键排放目标。

虽然AI发展为投资者、企业和社会带来巨大机遇,但也存在风险。许多人已经指出了这类系统可能带来的危害和偏见。与此同时,华尔街对等待技术转化为实际利润已经失去耐心。即便是注重效率的企业,也可能因过度投资基础设施而面临隐忧。

接下来,让我们详细了解AI行业维持其模型运行所需的各种资源。

需求冲击,人工智能需要更多能源、芯片、数据、土地和水……

还需要1000TWh电力

AI主要运行在数据中心,这些中心内部布满了持续运行的主板、芯片和存储设备。如今,这些中心对电力的需求已超出世界多个地区的供应能力。根据高盛的数据,美国数据中心的电力使用量预计到2030年将占总用电量的8%,几乎是2022年AI热潮开始时的三倍。该公司称,这是“一个世纪以来从未见过的电力增长”。瑞典和英国也预测会出现类似的需求激增。到2034年,数据中心的全球年度能源消耗量预计将从目前的500TWh增至1580TWh,相当于整个印度的用电量。

谷歌在2023财年消耗了超过24TWh的电力,较2021年增长了31%以上。微软的用电量与之相仿,较两年前增长了70%。全球顶级科技公司已清醒地认识到,电力可能是AI供应链中最具挑战性的环节,它们正竞相锁定长期供应。今年5月,微软与布鲁克菲尔德资产管理有限公司的绿色能源部门签署了迄今规模最大的企业清洁能源采购协议。

10月,全球规模最大的太阳能和风力发电运营商NextEra能源公司宣布达成协议,计划到2030年为仅两家财富500强公司开发10.5GWh的可再生能源和存储设施。这预示着即将到来的资源竞争,而且不仅限于科技公司。正如NextEra首席执行官约翰·凯奇姆向投资者所说:“这一繁荣使得数据中心以外的其他行业也更有动力去锁定低成本的可再生能源发电。所有行业都在这股浪潮中上升。”

需求冲击,人工智能需要更多能源、芯片、数据、土地和水……

尽可能多的化石燃料

煤炭是全球碳排放最大的能源之一,目前仍占发电量的三分之一。天然气虽然相对清洁,但也会产生温室气体排放,占发电量的20%。近年来,风能和太阳能发展迅速,但由于数据中心需要稳定的电力供应,这些可再生能源的间歇性成为一大挑战,除非配备大型储能电池系统。

谷歌开创性地开发出一个解决方案:利用软件定位电网中可再生能源富余的区域,并在这些地点优化数据中心运营效率。目前,核能是唯一可靠的全天候零排放电力来源。这就是为什么微软在9月份同意重启宾夕法尼亚州三哩岛核电站的一座反应堆,尽管该电站在1979年曾发生过严重事故。随后不久,亚马逊签署了三项小型核反应堆开发协议,而谷歌也投资并承诺从一家模块化反应堆公司购买电力。

“我的天哪,核反应堆?你在开玩笑吧?”甲骨文董事长拉里·埃里森在9月份的分析师会议上感叹道。“这听起来像是天方夜谭,但确实是真的。我们以前见过这种事吗?”

需要增加100倍的电网容量

输电线路和变电站是AI链中最容易被忽视的环节。所有新建的数据中心都需要连接到电网,而现有电网已经老化、负荷过重,且容易受恶劣天气影响。在4月份的彭博社情报活动中,云服务提供商CoreWeave的联合创始人布莱恩·文图罗指出,他们这些公司正在开发的大型数据中心将给电网带来巨大压力。他举例说,一个工业区的变电站通常供应30兆瓦电力,其中一个数据中心就可能需要5兆瓦。

剩余电力则供应其他办公室和工厂。而现在,文图罗说,像CoreWeave这样的公司会提出“我需要500兆瓦”的要求,“这意味着必须建设新的输电线路和变电站。”此外,这些变电站需要安装变压器,而变压器的订购周期可能长达数年。

而500兆瓦只是开始。OpenAI的联合创始人兼CEO萨姆·阿尔特曼提到的数据中心可能需要高达5000兆瓦的电力。Constellation Energy公司CEO乔·多明格斯表示,短期内从零开始建设如此大规模的电力系统“在技术上是不可能的”。作为向微软供电的三哩岛核电站所有者,多明格斯建议数据中心应考虑在现有大型电力设施周边选址,比如他的核电站。他提出了一个解决方案:在一到两座核反应堆旁建设大型园区,配套可再生能源和储能电池,通过新建电力线路和负荷转移控制系统连接起来,从而打造一个独立的电网系统。

每天数十亿升水

服务器的每一瓦电力都会产生热量。过高的温度不仅会损坏设备,还会降低系统运行速度。目前,在数据中心中,使用水冷却空气是最节能且最具成本效益的方法。据Bluefield Research估计,数据中心每天消耗超过10亿升水(包括能源生产用水),相当于330万人的日常用水量。

2023年的一项研究显示,与ChatGPT进行10到50次对话所需的水量约等于一瓶500毫升的瓶装水。而仅仅是训练ChatGPT背后的一个早期AI模型,就消耗了近75.8万升水。更值得注意的是,为了避免环境问题和设备故障,这些用水大多是饮用水。

水务局数据显示,在爱荷华州西德梅因,OpenAI使用的微软数据中心网络已成为该地区最大的用水户,用水量甚至超过了整个城市。(该地区表示,目前正在调查一起导致用水量激增的泄漏事故。)在西班牙的塔拉韦拉德莱雷纳小镇,Meta Platforms公司计划建设一个年度用水量达6.65亿升的中心,此事已与当地居民产生争议。

两倍的互联网带宽

大语言模型需要通过互联网消化海量数据来学习,而AI工具的使用者又进一步推高了这种需求。AT&T公司CEO约翰·斯坦基在5月份指出,该公司的无线网络需求每年增长30%,这种增长势头在AI使用量上升的情况下不会放缓。他说:“如果要维持每年30%到35%的使用量增长,就必须建设更宽阔的数据高速公路来承载它。”

Verizon Communications公司消费者集团CEO索米亚纳拉扬·桑帕特在同期的一次采访中表示,过去五年间,由于视频观看和流媒体服务的普及,该公司的网络流量已增长了一倍多。他预计,未来五年内,由于AI模型的提示和数据输入,流量将再次翻倍。他说,AI“将成为我们的下一个增长引擎”。科技公司对光纤网络的渴求如此迫切,以至于电信公司Lumen Technologies公司在8月份宣布,它已获得了50亿美元的AI相关连接需求业务(并正在洽谈另外70亿美元)。

数千个数据中心的地产

全球范围内,已建成或处于不同开发阶段的数据中心超过7000个,相比2015年的3600个翻了近一倍。但这似乎仍然不够。即使在ChatGPT出现之前,数据中心服务需求就在快速增长,主要原因是企业纷纷将数据处理外包并转向云服务。如今,各主要国家都在争相建设本土AI中心,掀起了一场全球基础设施竞赛。

数据中心需要大量土地。以专注于数据中心房地产投资信托基金的Equinix公司为例,该公司购买了200英亩土地用于建设一个数百兆瓦的园区。另一家公司则最近签约租用2000英亩土地,计划建设一个千兆瓦级园区。然而,寻找适合数据中心高电力需求的土地并不容易,这导致了激烈的竞购。除了土地外,这些庞大的建筑群还需要大量建筑材料和施工人员,而目前这两者都供不应求。云服务提供商CoreWeave的文图罗表示,一些客户甚至要求将整个园区专门用于他们的业务。用他的话说:“市场发展速度远远超过了传统实体产业供应链的建设速度。”

芯片、芯片、芯片

GPU是训练AI模型的核心。这种处理器能同时处理数千个任务,这就是所谓的并行运算。一个数据中心可能需要数百甚至数千个这样的处理器,每个的价格都超过一辆家用车。生成式AI热潮初起时,几乎所有主要科技公司都面临这类芯片短缺。微软和谷歌在近期财报会议上都将GPU库存不足列为主要挑战。

英伟达通过每年推出新技术,让这场竞争更加激烈。这进一步加剧了供应链的紧张。该公司11月表示,其新款Blackwell产品已恢复正常生产,出货量超出预期。但要完全满足市场需求,仍需要数个季度。

需求冲击,人工智能需要更多能源、芯片、数据、土地和水……

更稳定的硅、钢、石英和铜

上述设备都离不开金属和矿物原料。以硅为例,它是芯片、电路和处理器的基础材料。中国作为全球最大的硅原料和精制硅材料生产国,随着中美及其盟友关系趋紧,供应担忧日益加剧。最近北卡罗来纳州就出现了供应链危机。10月,海伦飓风不仅造成数十人死亡,让美国东部多地民众受困,还影响了该州两座矿山的运营。这两座矿山共同生产了约五分之四的高纯度石英,这种石英用于制造坩埚,硅在坩埚中被加热熔化并重结晶,形成制造半导体的理想材料。

半导体中含有金、银、铝和锡等金属,这些材料的供应基本充足。但两种较为冷门的芯片金属——镓和锗已成为潜在瓶颈。12月,中国宣布禁止向美国出口这些金属,这是科技战升级的最新举措。铜则广泛应用于芯片、数据中心、电气设备和冷却装置中,这可能引发AI、可再生能源和电动交通三方对铜资源的争夺。此外,作为建造数据中心和电缆等基础设施的关键材料,钢材的供应也至关重要。

需求冲击,人工智能需要更多能源、芯片、数据、土地和水……

比想象中更多的人才

关于AI可能淘汰的工作岗位已有诸多讨论。2月,瑞典金融科技公司Klarna Bank AB宣布其AI助理的工作效率相当于700名全职客服人员,引发广泛关注。全球研究和分析机构警告,金融、法律和客服等领域的就业将受到重大冲击。国际货币基金组织估计,AI可能会取代或改变全球近40%的工作岗位。

然而,AI行业本身正在创造数百万就业机会。这些岗位包括计算机科学家、数据架构师、研究人员、数学家、软件工程师、芯片设计师、产品和项目经理以及合规律师。此外还有大量内部分析师、营销人员和销售人员。11月初,Salesforce就宣布计划招募1000多名员工来销售其新的生成式AI产品。

在这场AI人才争夺战中,大多数领域都面临人才短缺。科技投资者和AI创业公司都在为缺乏优秀且经验丰富的人才而发愁。硅谷甚至出现了“AI名校”一词,指代包括Alphabet、微软和OpenAI在内的几家培养精英人才的公司,这些人才往往成为其他公司争相挖角的对象。与此同时,越来越多的人才从印度等国被招募到海外,负责构建和优化AI系统所需的高质量数据集。

比互联网数据更多的数据

生成式AI模型需要高质量数据,就如同人类需要食物。大语言模型通过吸收被分解成“标记”的小文本单元进行“训练”。在这个过程中,模型会识别文本模式,通过反复迭代来预测哪些文本应该跟随其他文本。世界上最重要的LLM每个都接受了超过一万亿个标记的训练。为了便于理解,2048个标记大约相当于1500个单词。目前,关于全球累积文本数据的标记总量,各方估计差异较大,从几万亿到数千兆不等。

令人意外的是,如此庞大的数据量可能仍然不足以推动AI按期望速度发展。包括OpenAI在内的全球AI模型开发商发现,寻找新的、未开发的、高质量的训练数据变得越来越困难。

非英语数据资源有限,而关注非西方或非白人群体的数据更是稀少。这种多样性的缺失可能导致AI产品对少数族裔、女性和其他弱势群体产生偏见。例如,彭博社今年的分析显示,ChatGPT背后的基础AI模型在按姓名对简历排序时,对某些族裔表现出偏见。OpenAI表示,这些结果可能并不反映客户实际使用模型的情况,同时强调公司致力于识别潜在危害。

从媒体机构到金融机构的内容生产商都意识到,他们的信息对AI开发商的价值与日俱增。2023年,好莱坞演员和编剧发起罢工,以保护其创作免受AI技术侵害。《纽约时报》和主要唱片公司正在起诉AI公司,理由是后者使用受版权保护的作品来训练数据。对此,AI公司辩称对公开材料进行训练属于合法的合理使用。

在近期一次投资者电话会议上,标普全球公司首席执行官马蒂娜·张强调:“大型语言模型的质量和规模取决于其训练数据的质量和数量,而我们恰恰拥有海量优质数据。”仅在过去一年,OpenAI就与多家内容提供商达成协议,包括News Corp.、Condé Nast、Hearst、Reddit、《人物》杂志出版商Dotdash Meredith和Axel Springer。

科技公司正在探索使用“合成”数据集(即AI自行创建的内容)来训练模型。理论上,这既能满足AI公司对数据的巨大需求,又能规避从网络抓取信息所涉及的法律、伦理和隐私问题。但研究人员警告,如果用AI生成的内容而非人类创作的内容来训练模型,可能会导致模型“崩溃”。

2023年一项关于模型崩溃的研究表明,当模型仅用少量自身生成的内容重新训练后,其生成的人物图像就开始出现扭曲。

效率提升能否推动AI持续繁荣?

投资者、数据中心运营商、能源公司等各类企业正在向AI供应链的各个环节投入数千亿美元。各大银行和私人金融机构都在积极争取预计高达1万亿美元的AI基础设施支出份额。Alphabet、亚马逊、Meta和微软在2024年的资本支出预计将共计超过2000亿美元。标普500公用事业板块指数在过去一年上涨22%,而专注于数据中心的房地产投资信托基金Equinix自2022年底以来市值近乎翻倍。英伟达股价在过去两年飙升近700%,跻身全球最具价值公司之列。

然而,归根结底,没人能确定AI的繁荣是否会持续。部分华尔街分析师已开始预测热潮即将结束。投资者质疑大型科技公司的巨额投入能否实现预期的AI盈利。对于投入AI的数百亿美元投资来说,最大的威胁或许在于全球顶尖模型开发商及其供应商对效率的过度追求。

芯片设备制造商应用材料公司首席执行官加里·迪克森去年 11 月告诉投资者,一些人工智能公司的目标是在五年内实现计算效率的“100 倍提升”。他说,其他公司则希望在 15 年内实现 1万倍的提升。迪克森表示,效率“正在成为行业统一的驱动力”。

本文由未来学人编译,原文作者:Lynn Doan,审校排版:从林点击查看原文链接

翻译作品,原文版权归原作者所有。未来学人仅提供翻译服务,不对原文内容或观点进行任何修改或代表。如有侵权,请联系我们删除。

赞赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫

好文章值得赞赏

相关推荐

评论

登录后才能评论