AI时代,Token供需战争的终极推演

水电费1 小时前
最强模型正在变成少数人的武器

视频标题:The Supply and Demand of AI Tokens | Dylan Patel Interview
视频作者:Invest Like The Best
编译:Peggy,BlockBeats

编者按:在 AI 模型能力持续跃迁、Claude Code、Cursor 等工具被企业大规模接入的背景下,行业讨论正在从「模型有多强」转向「模型如何进入生产」。但当 AI 编程、自动化分析和数据建模逐渐成为新的共识,一个更底层的问题开始浮现:当执行成本被快速压低,真正稀缺的究竟是人力、资本,还是对前沿模型和 token 的使用权?

AI时代,Token供需战争的终极推演

左为主持人 Patrick O'Shaughnessy,右为 Dylan Patel

本文整理自 Patrick O'Shaughnessy 与 SemiAnalysis 创始人 Dylan Patel 的一场对谈。Dylan 长期关注 AI 基础设施、半导体供应链与模型经济学,在这场对话中,他从自身公司 Claude Code 支出暴涨出发,讨论了 AI 如何改变企业组织、信息服务、token 需求、算力供应链以及社会情绪。

这场对谈最值得关注的,不是某个模型又一次刷新 benchmark,而是它提供了一种理解 AI 经济的方式——把 AI 看作一种正在重新分配执行能力、组织效率和产业利润的生产系统,而不只是一次软件工具升级。

这场对谈大致可以从五个角度理解。

首先,是执行成本被打穿。

过去,想法并不稀缺,真正困难的是把想法变成产品、系统和可交付服务。现在,Claude Code 让非技术人员也能写代码、搭应用、做数据分析,原本需要一个团队长期维护的工作,开始由少数人借助模型完成。SemiAnalysis 的 Claude Code 年化支出已经达到 700 万美元,超过其薪资支出的四分之一,这说明 AI 不再只是提效工具,而正在变成企业新的生产资本。

其次,是信息服务行业最先被重写。

Dylan 所在的业务本质上是出售分析、咨询和数据集,而这正是最容易被 AI 商品化的领域。芯片逆向分析、能源电网建模、宏观经济指标搭建,过去可能需要一个团队长期投入,现在可以由少数人在几周内搭出可用产品。这意味着,AI 对信息服务公司的压力不是「是否会替代人」,而是「谁能更快重做同行的产品」。不采用 AI 的公司会被更快的公司商品化,而采用 AI 的公司也必须持续提高标准,避免被下一批更高效的竞争者反向替代。

更深一层,是 token 正在变成新的生产资料。

过去企业购买软件订阅,核心问题是工具是否好用;现在,前沿模型的访问权、rate limit、企业合同和 token 预算,开始直接决定生产能力。越强的模型并不一定意味着更高成本,因为更聪明的 token 可能用更少步骤完成更高价值的任务。真正的竞争,正在从「谁使用 AI」转向「谁能拿到最强模型,并把最昂贵的 token 用在最高价值的场景」。

这种需求还会继续传导到整条供应链。

token 使用量暴涨,最终会变成对 GPU、CPU、内存、FPGA、PCB、铜箔、半导体设备和晶圆厂资本开支的持续压力。文中提到的「牛鞭效应」正是这一逻辑:下游看似只是模型调用需求增加,传到上游却可能变成数倍放大的订单、扩产和涨价。AI 产业的利润分配因此不会只停留在模型公司和 NVIDIA,而会沿着半导体与数据中心供应链继续外溢。

最后,是 AI 的社会反弹可能提前到来。

当 AI 真正进入工作流,公众对岗位替代、能源消耗、数据中心扩张和权力集中的担忧也会同步上升。Dylan 甚至预测,三个月内可能出现针对 AI 的大规模抗议。对模型公司来说,继续强调「AI 将改变世界」未必能缓解焦虑,反而可能强化普通人对失控感的想象。AI 行业接下来需要证明的,不只是技术能力,而是它如何在当下创造具体、可感知的公共价值。

如今,AI 的核心问题,正在从「模型能做什么」转向「谁能获得模型、如何使用模型,以及谁能捕获模型创造的价值」。在这个意义上,本文讨论的对象已经不只是 Claude Code、Anthropic 或某一家 AI 公司,而是一场围绕生产力、资本开支、组织效率和社会接受度展开的结构性重排。

以下为原文内容(为便于阅读理解,原内容有所整编):

TL; DR
·AI 的核心变量正在从「能不能做」转向「值不值得做」,执行成本骤降后,真正稀缺的是能被模型放大的高价值想法。
·Claude Code 支出占薪资成本 25% 只是开始,AI 正从软件工具变成企业新的生产资本。
·前沿模型的竞争不再只是能力竞争,而是 token 获取权竞争;谁能更早、更稳定地拿到最强模型,谁就可能形成新的商业壁垒。
·信息服务行业会最先被 AI 重构,因为数据、分析和研究的生产成本正在快速下降,慢公司会被更快的公司商品化。
·Token 需求不会因为旧模型降价而放缓,因为每一次模型变强,都会释放新的高价值用例,并把用户推向更贵的前沿模型。
·AI 带来的最大变化不是让人少工作,而是让少数人用同样时间完成数倍产出;不能创造并捕获 token 价值的人,会被锁在「永久底层」。
·算力短缺正在向整个半导体供应链扩散,从 GPU、CPU、内存到 PCB、铜箔和设备厂商,AI 需求已经变成全产业链的价格推力。
·AI 的经济价值很难被传统 GDP 捕捉,真正的问题不只是模型公司赚了多少钱,而是 token 生成的决策、效率和连锁影响究竟创造了多少「幽灵 GDP」。

访谈原文:

Claude Code 成了新劳动力

Patrick O'Shaughnessy(主持人):
你之前跟我讲过一个很精彩的故事,是关于你们团队今年在 token 使用量上的巨大变化。你能再讲一遍吗?它让你对这个世界正在发生什么有了什么理解?

Dylan Patel(SemiAnalysis 创始人):
去年,我们以为自己已经是 AI 的重度用户了。每个人都在用 ChatGPT,每个人都在用 Claude,我也给团队提供他们想要的各种订阅。那时候,公司在这方面的支出大概是几万美元级别。

但今年,支出开始飙升。真正的起点大概是在去年 12 月底,随着 Opus 的出现。这里面也包括 Doug,也就是我们的总裁 Douglas Lawler。他基本上是在带头推动非技术人员用 AI 写代码。可以说,他一点点把整个公司都带进去了。当然,工程师本来就在用,但从今年 1 月开始,我们的支出明显拐头向上,然后迅速爆发。

我们后来和 Anthropic 签了企业合同。上次我跟你聊的时候,我们的年化支出大概是 500 万美元;现在已经到了 700 万美元。

Patrick O'Shaughnessy:
而且那还是上周的数字。

Dylan Patel:
对,其中很大一部分就是使用量本身。真正有意思的是,以前从来没写过代码的人,现在也在用 Claude Code,而且有些人一天就能花掉几千美元。但从公司整体来看,我们现在每年在 Claude Code 上的支出已经到了 700 万美元,而我们的薪资支出大概是 2500 万美元。也就是说,Claude Code 的支出已经超过薪资支出的 25%。

如果这个趋势继续下去,到年底它甚至可能超过薪资总额的 100%。这有点吓人。幸运的是,我现在并不需要在「人」和「AI」之间二选一,因为公司增长很快。更像是:我不需要那么快招人,但可以在 AI 上花更多钱,而且它确实有效,公司也能增长得更快。

但我觉得,其他公司迟早也会开始面对这个问题:如果一个人用 Claude Code 就能完成 5 个、10 个、甚至 15 个人的工作,那接下来怎么办?第一,可能确实应该裁人;第二,目前这些使用场景又非常广泛。

举个例子,我们在俄勒冈有一个逆向工程实验室,已经建设了一年半。里面有很多高端设备,比如显微镜、扫描电子显微镜。这个实验室的核心用途是逆向分析芯片,提取芯片架构,分析其制造所使用的材料。这些也是我们出售的数据之一。

但分析这类数据过去是一个非常缓慢的过程。现在,我们团队里有一个人,只花了几千美元的 Claude token,就做出了一个应用。这个应用可以进行 GPU 加速,跑在我们放在 CoreWeave 的服务器上。我们只要发给它一张芯片图片,它就能自动在图像上标出每一种材料的位置:这里是铜,这里是钽,这里是锗,这里是钴。然后你就可以非常快速地对整个芯片堆叠结构进行有限元分析,而且是可视化的,还有完整的图形界面和仪表盘。

这个人以前在英特尔工作过,他说,在过去,这本来是一个完整团队要做和维护的事情。现在类似的事情放到整个公司来看,简直不可思议。

还有一个我觉得特别有意思的例子,是 Malcolm。他以前是一家大银行的经济学家。那家银行的经济学部门可能有 100 到 200 人。他现在做出来的东西非常惊人。

他把各种数据都接了进来,包括 FRED 数据、就业报告,以及其他来自不同 API 的数据集。我们也和一些数据供应商签了合同,拿到了 API 访问权限。然后他把所有数据拉进来,开始跑回归,分析不同经济变化对经济的通胀或通缩影响。

美国劳工统计局有一整套任务分类,大概有 2000 项任务。Malcolm 用 AI 去评估:哪些任务现在可以由 AI 完成,哪些不能,并按照一套 rubric 给它们打分。结果显示,大概有 3% 的任务现在已经可以用 AI 完成。

于是他创造了一个指标,用来衡量哪些事情可以被 AI 完成,以及当这些事情被 AI 完成时,会带来多大的通缩效应。产出可能会上升,但因为成本下降得太厉害,理论上 GDP 反而可能收缩。他把这个叫作「Phantom GDP」(幽灵 GDP)。

他基于这个概念做了一整套分析,还建立了一个全新的语言模型 benchmark,包含大约 2000 个 eval。

Patrick O'Shaughnessy:
这些都是他一个人做的?

Dylan Patel:
对,全部是他一个人做的。他跟我说:「兄弟,这在以前得是一个 200 人的经济学家团队花一年时间才能完成的事。」他现在完全沉浸在 Claude 里,说一切都变了。

Patrick O'Shaughnessy:
作为一个企业经营者,你怎么理解这件事?你们从几乎没有这项支出,变成现在它已经接近薪资支出的 25%,而且还在继续上升。到了什么节点你会觉得:等等,我是不是该踩刹车了?是不是该控制一下支出?也许我们不需要总是用今天刚发布的最前沿模型,比如 Opus 4.7,而是可以换成更便宜一点的模型?

Dylan Patel:
归根结底,我做的是信息生意。我们卖的是分析,做咨询,也创建数据集。我看不到有什么理由认为这些东西不会在相当快的速度下被完全商品化。

如果我不持续改进,我最早卖的第一个数据产品,现在已经有更多人开始做类似的事情了。我们之所以还能卖出去,是因为我们不断把它做得更好、更细。但我们在 2023 年做这件事的方式,其实和现在其他人正在做的方式已经没有特别大的区别了。如果我不继续提高标准,我就会被商品化。如果我动作不够快,我也会失去优势。

所以问题是:是的,AI 会商品化很多东西,就像它正在商品化软件一样。但那些行动足够快、能掌握客户关系、持续提供优秀服务并不断改进服务的人,不会萎缩,反而会增长得更快。那些无能、什么都不做的人会输。

所以这其实有点像一个生存问题:如果我不采用 AI,别人就会采用,然后他们会打败我。

另一个很简单的例子是能源领域。我们过去一年左右一直有几位能源分析师,试图搭建一个能源模型。这个模型非常复杂,而能源数据服务市场大概有 9 亿美元规模,所以它显然是一个我很想进入的巨大市场。但尽管我们团队已经有人做了一年,我们其实并没有真正切入能源数据服务业务。

然后,「Claude Code 精神病」来了。我们有一位负责数据中心能源与工业业务的人,叫 Jeremy。他开始使用 Claude Code 之后,情况突然变了。三周时间里,他花了很多钱,一天大概能花 6000 美元,确实非常夸张。但他抓取了美国每一座发电厂、每一条高于某个电压等级的输电线路,并从各种公开数据源里建立了整个美国电网的地图,同时还接入了很多需求侧数据。

我们把它做成了一个仪表盘,可以查看和分析美国各个微区域的电力短缺和过剩情况,以及很多细节。这个东西几周之内就搭起来了。

后来我们把它展示给一些已经购买我们数据中心数据集的客户,其中也包括能源交易员。他们看完之后说:「哇,这个做了多久?这很不错,比某某公司还好。」然后我们进一步了解,发现那个「某某公司」有 100 个人,已经在这件事上做了十年。

当然,我们现在的产品还没有他们那么完整、那么稳健,但在某些方面,它已经更好了。所以我现在是在商品化这些能源数据服务公司。但反过来,如果我不跑得更快,谁又会来商品化我?

所以,从企业主的角度看,问题不是「我是不是花了很多钱」。是的,我确实花了很多钱。但问题是,这些钱给我带来了什么?它有没有带来更多收入?如果答案是有,那这笔钱就是值得的。

Patrick O'Shaughnessy:
你会不会担心,到最后,那些控制资本、负责投资资本的人,也就是那些经常因为你们做的事情而雇佣你们的人会说:「我们自己也有分析师,而且他们也很聪明,我们干脆自己做不就好了?」如果这件事变得这么容易,那么在什么节点上,它会不会全部回流到投资机构内部?毕竟它们最有可能从这些数据和洞察中获得最大杠杆。

Dylan Patel:
首先,任何信息服务业务本质上都是这样:我从一条信息中获得的价值,显然没有客户从这条信息中获得的价值大。

如果我以 1 美元的价格把信息卖给你,你之所以愿意花这 1 美元买,是因为你知道这条信息能帮助你做出一个决策,而这个决策能让你赚到超过 1 美元。也就是说,你获得了套利机会。你从我这里赚到的钱,比我通过卖这条信息赚到的钱更多。

投资基金本身当然也有自己的信息服务能力。尤其是像 Jane Street、Citadel 这类机构,它们在数据方面非常细,非常深入。但这些机构依然会购买我们的数据,而且还在继续购买,并且和我们的合作还在增长。

我觉得这里面有某种「it factor」。我们行动更快,更灵活,团队更小,而且专注在一个非常具体的领域:AI 基础设施,以及它所引发的巨大变革,包括 AI、token 经济和相关的一整套东西。我们能更早看到方向,也能更快搭建东西。

所以,投资专业人士当然会尝试自己做一些我们做的事情。但更多时候,他们会直接购买我们的数据,然后在此基础上继续构建。对他们来说,买我们的数据再往上做,通常比自己从零开始搭建更便宜。当然,最终肯定也会有人尝试自己做。

Token 变成新的生产资料

Patrick O'Shaughnessy:
我觉得每次和你聊天,我最后都会回到同一个问题:token 的供给和需求。现在世界上最让我感兴趣的就是这个。你自己的这些经历,让你对需求侧有什么新的理解吗?当你自己非常切身地感受到这一点之后,你对 token 需求这件事的判断有变化吗?

Dylan Patel:
如果我们退一步,从宏观角度看,Anthropic 的 ARR 可能已经从 90 亿美元增长到 350 亿、400 亿美元左右。等这期节目播出的时候,也许已经到了 400 亿到 450 亿美元。

但它们的算力增长并没有达到同样的幅度。如果你算一下,并且假设它们没有减少研发算力——它们显然没有减少,因为它们还在发布新模型,比如 Metis、Opus 4、Opus 4.7——那就说明一件事:它们新增的算力,即使全部都投向推理,它们的毛利率下限也在 72% 左右。

现实中,一部分新增算力很可能也进入了研发,所以它们实际毛利率可能还高于 72%。要知道,今年年初有人泄露过它们融资文件中的一部分信息,当时显示的毛利率大概只有 30% 多。

一个业务到底怎么才能在这么短时间里把毛利率提升到这种程度?原则上,是因为需求太高了。它们可以收紧使用额度、速率限制以及各种限制。真正重要的是,你要有 Anthropic 的客户经理,要有企业合同,并且能获得你需要的 rate limit 提升。否则,token 最终一定会变得极度抢手。

谁付得起,谁就能拿到。Anthropic 面对的也是同样的问题——当然这不算问题,这只是资本主义运作方式的现实。是的,客户每年可能会向它们支付 400 亿美元的 token 费用,但这些 token 在客户那里创造的价值,远远超过 400 亿美元。

不同企业每个 token 所创造的价值不同。但随着模型越来越智能,真正重要的就变成了:谁能获得这些最智能的 token,并把它们用在最有价值的事情上。

作为一个人,你要决定的是:怎样使用这些 token,才能增长业务、创造价值。很多人都会想要 token,也会消耗 token。但那些在旧金山用 Claude 生成软件产品的普通 SaaS 创业公司,未必真的创造了巨大价值。所以迟早,它们会被 token 价格挤出去。

Patrick O'Shaughnessy:
我今天在飞来的路上就遇到了这个情况。Opus 4.7 一发布,我立刻就想用 4.7,而且是马上用。结果我被限流了,根本用不了。我甚至已经没法再想象继续用 4.6 了,虽然过去几周我一直很满意 4.6,它明明已经很强了。

你会惊讶于人们这么执着地想使用最贵、最前沿的模型吗?

Dylan Patel:
完全不惊讶。我过去一个半月里最搞笑的记忆之一,就是我和我的朋友 Leopold 一起,几乎跪在 Anthropic 联合创始人面前,求他给我们 Metis 的访问权限。

我们知道它存在,所以我们就说:「拜托,让我们用一下吧。」然后他说:「我不知道你们在说什么。」

Patrick O'Shaughnessy:
当那个价格表,或者说 eval card 出来的时候,你是什么反应?

Dylan Patel:
其实在湾区之前就有传闻,我们大概知道它应该会非常强。如果你看 benchmark,当然 benchmark 会不断变化,但 Mephisto / Metis 很可能是过去两年里模型能力最大的一次跃升。

我觉得这一点非常重要:它强到 Anthropic 甚至不想完全发布它。尽管它们已经向部分客户公布了价格,并且进行了选择性发布,比如面向网络安全相关场景。它的 token 成本可能是 5 倍甚至 10 倍,但它们仍然不想全面放出来,因为担心它对现实世界造成的影响。

所以现在放给我们的,是一个更差、更弱的版本,也就是 Opus 4.7。而且它们在模型卡里明确说了:我们实际上在网络安全能力上有意做了更差的预优化。不知道你有没有读到那部分。

所以我想说的是:无论你是谁,只要你有足够资本,你就应该去买 Anthropic 的企业订阅,按 token 付费,而不是用那些普通订阅。因为这样你就不会那么容易被限流。

然后你必须想清楚:怎样把这些 token 用在最高价值的任务上,并从中赚钱。因为从根本上说,也许一年后、两年后,很多生意本质上就是在做 token 套利。token 很强大,但关键是你要知道把它们指向哪里。

再往后三四年,模型自己可能就会知道应该如何使用 token,如何创造最大价值。

如果你回头看任何一个 benchmark,就会发现:过去达到某个能力层级需要的成本是 X,现在可能只需要原来的百分之一,甚至千分之一。比如 DeepSeek 达到 GPT-4 级别能力时,成本大概是 GPT-4 的六百分之一。此后,GPT-4 级模型的成本还在继续下降。

当然,现在已经没有人真的在乎 GPT-4 级模型了。大家想要的是前沿模型,因为前沿模型才能创造真正有经济价值的东西。不过,GPT-4 级模型仍然可以被用于一些场景,只是那些场景通常更小。

所以真正推动需求的,不是旧能力变便宜了,而是新用例不断出现。你现在用的是 Opus 4.6 或 Opus 4.7 这一层级的模型。一年后,如果我要获得今天同等质量的模型能力,我的支出可能只有 7 万美元,也许会便宜 100 倍。

但这不重要。因为到时候,我一定会使用一个更强的模型,去做更有价值的事情。

Anthropic 的 Metis 作为模型本身更贵,但它完成同一件事所消耗的 token 少得多。所以在大多数任务上,它实际上比 Opus 4.6 更便宜。

Dylan Patel:
因为它效率高得多。即使每一个 token 本身更「聪明」、更贵,它完成任务所需要的 token 数量更少。

Patrick O'Shaughnessy:
上次见你的时候,Metis 可能刚刚发布,或者说模型卡刚刚出来。你当时说,它强到让你有点害怕。你这句话是什么意思?

Dylan Patel:
Anthropic 在 2025 年的目标,甚至从 2024 年开始,就是:到 2025 年底,他们希望模型里能有一个 L4 水平的软件工程师。总体来说,他们用 Opus 4.6 基本做到了。

但他们没有说的是,如果你看 Metis,再对比 benchmark,它更像是一个 L6 工程师。L4 大概是相对初级的软件工程师,而 L6 已经是经验相当丰富的工程师了。

我记得 Anthropic 说过,这个模型在内部大概从 2 月就可用了。也就是说,两个月时间里,它们就从 L4 工程师跃升到了 L6 工程师。那接下来会发生什么?

当你思考模型进步时,会发现它其实还在加速。Anthropic 的发布节奏在压缩,OpenAI 的发布节奏也在压缩。为什么?因为通常来说,要做出更好的模型,你需要几个东西。

首先,你需要强大的算力。算力非常昂贵,而且有它自己的时间尺度。我们会跟踪这些东西,它确实在增长,但短期内基本是已经确定的。你已经签下来的算力,大体上已经定了。当然,中间会有延迟和调整,也可能想办法再多弄一点,但整体上是比较固定的。

其次,你需要非常优秀的研究人员。现在公司愿意为这些人支付数千万美元。

最后,是实现能力。历史上,实现一直非常困难。如果我有一个想法,我还得把它实现出来,而实现是很难的。但现在,想法到处都是,实现变得非常容易。它很贵,但非常容易。

所以问题变成了:一个人要如何决定该实现哪些想法?结果是,当实现变得容易太多时,你就可以实现更多想法,在这个跑步机上跑得更快。

这可以发生在 AI 模

免责声明:

1.资讯内容不构成投资建议,投资者应独立决策并自行承担风险

2.本文版权归属原作所有,仅代表作者本人观点,不代币币情的观点或立场