AI基础设施经济学:算力成本如何塑造市场未来

哈希派2 小时前
当前 AI 基础设施的经济模式,在规模化之后是否真正可持续?算力分配机制的变革,又将如何重塑整个市场的价值分布?

来源:International Business Times UK 

原文作者:Anastasia Matveeva 

编译整理:Gonka.ai

Artificial Intelligence , Humanoid Robot

人工智能(AI)正在以前所未有的速度发展,但其背后的经济逻辑却比表面更加脆弱。当前,全球三分之二的算力被三大云巨头掌控,训练一个模型的成本已接近10亿美元,而推理账单正让初创公司不堪重负。这场算力军备竞赛的代价,正在悄然重塑AI产业的价值分配。

本文并非讨论谁将开发出最先进的模型,而是探讨一个更根本的问题:当前AI基础设施的经济模式是否能够在规模化后持续?算力分配机制的变化又将如何影响市场的价值分布?

一、智能成本的背后

训练一个前沿大模型的成本可能高达数千万甚至上亿美元。Anthropic曾公开表示,训练Claude 3.5 Sonnet的成本为“数千万美元”,而其CEO达里奥·阿莫迪(Dario Amodei)预计下一代模型的训练成本或将逼近10亿美元。据行业媒体报道,GPT-4的训练成本可能已超过1亿美元

然而,训练成本只是冰山一角。真正对结构层面施加压力的是推理成本——即每次模型调用时产生的费用。按照OpenAI公开的API定价,推理按百万Token计费。对于高使用量的应用而言,这意味着即便在规模化之前,每日推理成本就可能达到数千美元。

AI常被描述为一种软件,但其经济本质越来越像资本密集型基础设施——既有高额的前期投入,又有持续不断的运营支出。

这种经济结构的转变正在悄然改变整个AI产业的竞争格局。能够负担得起算力的是那些已经建立起大规模基础设施的巨头,而试图在夹缝中生存的初创公司,则正在被推理账单逐渐蚕食。

二、资本强度与市场集中

根据Holori 2026年云市场分析,AWS目前占全球云市场约33%的份额,微软Azure约22%,谷歌云约11%。三家合计掌控全球云基础设施约三分之二的份额,而全球绝大多数AI工作负载正是运行在这三家公司的基础设施之上。

这种集中度的现实意义是:当OpenAI的API出现宕机,数以千计的产品同时受影响;当某家主要云服务商遭遇故障,跨行业、跨地域的服务随之中断。

集中度并未收窄,基础设施支出反而在持续扩张。以英伟达为例,其数据中心业务年化营收已突破800亿美元,显示高性能GPU需求持续旺盛。

更值得关注的是一个隐性的结构性不平等。根据SEC文件和市场报告,OpenAI、Anthropic等头部实验室通过数十亿美元的“股权换算力”协议,以最低每小时1.30–1.90美元的近成本价锁定GPU资源。而那些缺乏与英伟达、微软、亚马逊战略合作关系的中小公司,则被迫以超过每小时14美元的零售价采购——溢价高达600%。

这个定价鸿沟正是由英伟达近期向头部实验室合计400亿美元的战略投资所驱动的。AI基础设施的获取权越来越多地由资本密集型采购协议决定,而非开放的市场竞争。

在早期采用阶段,这种集中可以看起来“有效率”。但在规模化之后,它带来的是定价风险、供应瓶颈与基础设施依赖——三重脆弱性叠加。

三、被忽视的能源维度

AI基础设施的成本问题还有一个常被忽视的维度:能源。

根据国际能源署(IEA)的数据,数据中心目前约占全球电力消耗的1–1.5%,而AI驱动的需求增长可能在未来几年显著推高这一比例。

这意味着,算力经济学不仅是一个财务问题,更是一个基础设施与能源挑战。随着AI工作负载的持续扩张,电力供给的地缘政治意义将日益凸显——哪个国家能以最低能源成本提供最稳定的算力,将在AI时代的产业竞争中占据结构性优势。

当黄仁勋在GTC26宣布英伟达订单可见性突破1万亿美元时,他描述的不只是一家公司的商业成功,而是整个文明正在将电力、土地和稀缺矿产转化为智能算力的宏大进程。

四、重新思考基础设施机制

在中心化数据中心持续扩张的同时,另一类探索正在悄然兴起——试图从根本上重新定义算力资源的协调方式。

去中心化推理:一种结构性替代

Gonka协议是这一方向上的代表性实践。这是一个专为AI推理设计的去中心化网络,其核心设计目标是:将网络同步和共识开销压缩到最低,把尽可能多的计算资源导向真实的AI工作负载。

在治理层面,Gonka采用“一算力单元一票”的原则——治理权重由可验证的算力贡献决定,而非资本持股比例。在技术层面,协议采用短周期性能测量区间(称为Sprint),要求参与者通过基于Transformer的工作量证明(PoW)机制实时展示真实的GPU算力。

这一设计的意义在于:近100%的网络算力被导向AI推理工作负载本身,而不是消耗在维持共识、协调通信等基础设施开销上。

分布式算力的经济逻辑

从经济学角度看,去中心化算力网络的价值主张有三个层次。

第一是成本层。中心化云服务商的定价结构本质上包含了巨额固定资产折旧、数据中心运营成本和股东利润预期。去中心化网络通过将闲置GPU资源货币化,可以将这部分成本显著压缩。以Gonka为例,当前通过其USD计费网关GonkaGate提供的推理服务,定价约为每百万Token 0.0009美元——而Together AI等中心化服务商对同类模型(如DeepSeek-R1)的定价约为1.50美元,差距达千倍以上。

第二是供应弹性层。中心化服务商的算力供给是刚性的,扩容周期以月乃至季度计算。去中心化网络的参与者可以随需求波动弹性加入或退出,理论上能更快速响应需求峰值——正如亚马逊云服务当年因节假日流量峰值需求而诞生一样,AI推理的峰谷波动同样需要弹性基础设施来承接。

第三是主权层。这一维度在主权国家的视角下尤为突出。当一国政府的公共服务深度依赖某家外部云服务商时,算力依赖即是战略脆弱性。去中心化网络提供了一种可能:本地数据中心可以作为节点接入全球分布式网络,在保障数据主权的同时,通过向全球市场提供算力来获得可持续的商业回报。

五、价值分配的重构时刻

回到文章开头的核心问题:当前AI基础设施的经济模式,在规模化之后是否可持续?

答案是:对于头部玩家,可持续;对于其余所有人,越来越不可持续。

AWS、Azure、Google Cloud通过数十年的资本积累建立起护城河,其规模优势在短期内几乎无法撼动。但这种结构性优势同时意味着:定价权、数据访问权和基础设施依赖,都高度集中于少数几个私人实体手中。

历史上,每一次重大技术基础设施的垄断,最终都催生出了替代性的分布式架构——互联网本身就是对电信垄断的反叛,BitTorrent是对内容分发中心化的颠覆,比特币是对货币发行集中化的挑战。

AI基础设施的去中心化,可能不是一种意识形态选择,而是一种经济必然——当集中化的成本高到足以驱动大规模用户迁移时,替代方案的需求就会真实爆发。黄仁勋用“每一次金融危机都将更多人推向比特币”来类比这一逻辑,同样适用于算力市场。

DeepSeek的横空出世已经证明了一件事:在开源模型的能力逼近闭源前沿的世界里,推理成本将成为决定AI应用规模化速度的核心变量。谁能提供最低成本、最高可用性的推理算力,谁就掌握了这场竞争的入场券。

结语:基础设施战争才刚刚开始

AI的下一阶段竞争,不会在模型能力的排行榜上分出胜负,而会在基础设施的经济博弈中见真章。

集中化的算力巨头手握资本和规模优势,但也背负着固定成本结构和定价压力。去中心化网络正在以极低的边际成本切入市场,但需要证明自己在稳定性、易用性和生态规模上能够达到真实的商业门槛。

两种路径将长期并存,并相互施压。中心化和去中心化之间的张力,将是未来五年AI产业最值得持续追踪的结构性主题之一。

这场基础设施战争,才刚刚开始。

关于作者

Anastasia MatveevaProduct Science的高级产品经理与研究员,同时也是Gonka协议的联合创始人之一。她的研究方向涵盖机器学习基础设施、大语言模型推理以及分布式计算系统。

她毕业于巴塞罗那加泰罗尼亚理工大学(UPC Barcelona),获数学博士学位,并曾在该校担任研究员与讲师。2021年加入Product Science以来,她主导开发了一套AI工程工具,目前已被逾百名工程师采用,并在多家《财富》500强企业中投入使用。

关于 Gonka.ai

Gonka是一个旨在提供高效AI算力的去中心化网络,其设计目标是最大限度地利用全球GPU算力,完成有意义的AI工作负载。通过消除中心化守门人,Gonka为开发者和研究人员提供了无需许可的算力资源访问,同时通过其原生代币GNK奖励所有参与者。

Gonka由美国AI开发商Product Science Inc.孵化。该公司由Web 2行业资深人士、前Snap Inc.核心产品总监Libermans兄妹创立,并于2023年成功融资1800万美元,2025年新增融资5100万美元,投资者包括OpenAI投资方Coatue Management、Solana投资方Slow Ventures、Bitfury、K 5、Insight and Benchmark合伙人等。项目的早期贡献者包括6 blocks、Hard Yaka、Gcore等Web 2-Web 3领域的知名领军企业。

官网 | Github | X | Discord | Telegram | 白皮书 | 经济模型 | 用户手册

免责声明:

1.资讯内容不构成投资建议,投资者应独立决策并自行承担风险

2.本文版权归属原作所有,仅代表作者本人观点,不代币币情的观点或立场