黄仁勋最新播客:AI正从「模型时代」迈向「系统时代」
视频标题:Jensen Huang: Nvidia's Future, Physical AI, Rise of the Agent, Inference Explosion, AI PR Crisis
视频作者:All-In Podcast
编译:Peggy,BlockBeats
编者按:在 AI 叙事持续升温的当下,市场讨论的焦点,正在从「模型有多强」转向「系统如何落地」。过去两年,行业先后经历了大模型能力突破、训练算力竞赛和生成式应用扩张。但当这些阶段逐渐成为共识,新的问题也随之浮现:当 AI 不再只是回答问题,而是开始执行任务、嵌入企业流程、进入物理世界,支撑它继续向前推进的底层条件究竟是什么?
本文对话摘自知名科技播客 All-In Podcast。作为硅谷最具影响力的投资人播客之一,该节目由四位长期活跃在一线的投资人共同主持,以对科技、商业与宏观趋势的深度讨论著称。
节目四位主持人分别为:
- Jason Calacanis,早期互联网创业者与天使投资人,因投资 Uber、Robinhood 等公司而广为人知;
- Chamath Palihapitiya,Social Capital 创始人,前 Facebook 高管,曾投资 Slack、Box 等多家科技公司;
- David Sacks,Craft Ventures 合伙人,「PayPal 黑帮」成员之一,创办 Yammer 并以约 12 亿美元出售给 Microsoft,同时也是 Airbnb、Uber 的早期投资人;
- David Friedberg,The Production Board 创始人,专注农业、气候与生命科学领域投资,曾创办 The Climate Corporation(后被 Monsanto 收购)。
本期嘉宾为黄仁勋(Jensen Huang),NVIDIA 联合创始人兼 CEO,被视为当前 AI 基础设施浪潮中最关键的推动者之一。

从左往右依次是 David Friedberg、Chamath Palihapitiya、David Sacks、黄仁勋(Jensen Huang)、Jason Calacanis
整场访谈大致可以概括为三个层次。
首先,是 AI 基础设施正在发生变化。过去,市场对 AI 的理解,很大程度上建立在更强的 GPU、更多的数据中心之上。但黄仁勋想强调的是,未来的竞争不再只是单一芯片的竞争,而是整套系统的竞争。随着推理需求上升、模型种类增多、agent 开始处理更复杂的任务,AI 计算正在从过去相对单一的模式,转向更复杂、更分工化的系统协作。NVIDIA 也因此试图把自己的角色,从一家芯片公司,进一步推向「AI 工厂」的建设者。
其次,是 AI 正从「生成内容」走向「完成任务」。这是这场访谈里最关键的一条线索。ChatGPT 让大众第一次直观感受到 AI 的能力,但在黄仁勋看来,真正更大的变化,是 AI 开始以 agent 的形式进入工作流:它不只是回答问题,而是能够调用工具、拆解任务、协同执行,最终把事情真正做完。也正因如此,用户愿意为 AI 付费的对象,也会从「获得一个答案」,逐步转向「获得一个结果」。这背后意味着更大的推理需求、更高的系统复杂度,也意味着软件开发、组织管理和知识工作的方式都可能随之改写。
最后,是 AI 正在从数字世界向现实世界延伸。访谈中,无论谈到自动驾驶、机器人、医疗、数字生物学,还是黄仁勋口中的 Physical AI,本质上都指向同一个趋势:AI 的价值不只体现在屏幕之内,也将越来越多地体现在工厂、医院、汽车、终端设备和日常生活中。但这也意味着,AI 接下来面对的将不再只是技术挑战,还包括供应链、政策、监管、制造能力与地缘政治等更复杂的现实约束。换句话说,AI 的下一轮扩张,将是一场真正意义上的产业化过程。
从这个角度看,这场对谈最值得关注的,其实不是某个具体产品,或某个乐观数字,而是黄仁勋反复传递的一个判断:AI 正在从「模型时代」走向「系统时代」。未来的竞争,不只是比谁的模型更大、算力更强,而是比谁更懂行业、谁能把 AI 更深地嵌入真实流程、谁能把这些能力组织成一套可运行、可扩展的系统。
这也让本文讨论的对象,超出了 NVIDIA 本身。它真正试图回答的问题是:当 AI 逐渐成为基础设施,下一轮产业重构会如何展开,新的价值又将在哪里形成。
以下为原文内容(为便于阅读理解,原内容有所整编):
TL;DR
- AI 基础设施正在从「单一 GPU」走向解耦式架构。不同计算任务将由 GPU、CPU、网络芯片以及 Groq 等推理芯片协同完成。
- NVIDIA 正从一家 GPU 公司,转型为一家提供完整系统的「AI 工厂公司」。卖的是整套基础设施,而不是单一芯片。
- 衡量 AI 成本的关键,不是数据中心造价,而是 token 成本与吞吐效率。更贵的系统,反而可能更便宜。
- AI 正从生成式模型走向 Agent 时代。用户真正愿意为「把事情做完」付费,而不只是获取答案。
- 计算需求正在爆炸式增长。从生成到推理再到 agent,短时间内可能已扩大 1 万倍以上,且仍在加速。
- 未来软件开发将发生变化。工程师不再只是写代码,而是定义问题、设计架构、与 agent 协作。
- 长期来看,最大的机会在于垂直领域的深度专门化,而不是通用模型本身。谁更懂行业,谁更有护城河。
访谈原文
Jason Calacanis(知名天使投资人|All-In Podcast 主持人|早期投资 Uber):
这周是一期特别节目。我们让每周的常规节目「让路」,而这种待遇,我们通常只会给三种人:特朗普总统、耶稣,还有黄仁勋(NVIDIA 的创始人兼 CEO)。至于这三位该怎么排,你们自己决定。你最近这段时间势头太猛了,这次 GTC 也办得非常成功。
黄仁勋(Jensen Huang,英伟达 CEO):
整个行业都来了。所有科技公司、所有 AI 公司几乎都到了。
Jason Calacanis:
太不可思议了,真的不同凡响。过去一年里最重大的发布之一,就是 Groq。你们收购 Groq 的时候,有没有意识到,这会让 Chamath 变得多么「让人受不了」?
注:Groq 不是 Grok。前者是一家做 AI 推理芯片和推理云的公司,后者则是 xAI 的聊天机器人。2025 年底,Groq 与 NVIDIA 达成一项非独家的推理技术授权协议,官方未披露交易金额;但外界曾有约 170 亿至 200 亿美元的报道与猜测。到 GTC 2026,黄仁勋又进一步展示了基于 Groq 技术整合进 NVIDIA 平台的推理系统。
这里提到的 Chamath,指的是 Chamath Palihapitiya(Social Capital 创始人|前 Facebook 高管|All-In 主持人)。他既是 All-In 的四位主持人之一,也曾是 Groq 的早期投资人和董事会成员之一。因此,当 NVIDIA 与 Groq 的重大交易浮出水面后,这也被视为 Chamath 又一次押中了关键项目。
黄仁勋:
我隐约有预感。
Jason Calacanis:
我们每周都得和他打交道。
黄仁勋:
我知道。你们还得陪他熬完整整六周的交割期。
Jason Calacanis:
没错。
从 GPU 公司到「AI 工厂」公司
黄仁勋:
其实,我们很多战略都会提前好几年在 GTC 上公开讲出来。两年半前,我就介绍过 AI 工厂的操作系统,它叫 Dynamo。
你也知道,dynamo 原本是一种装置,是西门子发明的,它能把水的能量转化为电能,推动了上一次工业革命中的工厂体系。所以我觉得,这个名字非常适合作为下一次工业革命中「工厂操作系统」的名称。而在 Dynamo 里面,最核心的技术之一,就是解耦式推理(disaggregated inference)。
Jason Calacanis:
Jensen,我知道你特别懂技术。来吧,你来定义一下。我可不想抢你风头。
黄仁勋:
谢谢。所谓解耦式推理,意思是:推理的整个处理流水线极其复杂,甚至可能是今天最复杂的一类计算问题。
它的规模惊人,里面包含大量不同形式、不同规模的数学计算。我们的想法,是把整个处理流程拆开,让其中一部分运行在某一类 GPU 上,另一部分运行在另一类 GPU 上。进一步讲,这也让我们意识到,也许解耦式计算本身就是合理的方向:我们完全可以让不同类型、不同性质的计算资源协同工作。
同样的思路,后来也引导我们走向了 Mellanox。你看今天,NVIDIA 的计算早已分布在 GPU、CPU、交换机、纵向扩展交换机、横向扩展交换机以及网络处理器之上。现在,我们还要把 Groq 加进来。
我们的目标,就是把合适的工作负载放到合适的芯片上。换句话说,我们已经从一家 GPU 公司,进化成了一家 AI 工厂公司。
David Sacks(Craft Ventures 合伙人|前 PayPal COO|All-In 主持人):
对我来说,这大概是最重要的启发。你现在看到的是一种根本性的「解耦」。过去只有 GPU 这一种选择,而现在开始出现越来越多不同的计算形态,而且这些选择未来都会共存。
你在台上提到一点,我觉得所有做高价值推理的人都应该认真听:你说,数据中心里大约 25% 的空间应该配置给 Groq 的 LPU。
注: LPU 是 Language Processing Unit 的缩写。这是 Groq 提出的一个芯片类别,核心定位不是训练,而是推理
黄仁勋:
是的,在数据中心里,大概可以让 Groq 占 Vera Rubin 系统大约 25% 的比重。
注:Vera Rubin 是 NVIDIA 的下一代 AI 平台架构。它不是单一芯片,而是一套面向 AI 工厂的系统级基础设施平台。
David Sacks:
那你能不能讲讲,行业现在是怎么看这个方向的?本质上,你是在打造下一代的解耦架构:prefill、decode 分离,推理流程被拆分。你觉得大家会如何反应?
黄仁勋:
先退一步来看。我们当时往系统里加入这个能力,是因为整个行业已经从大语言模型处理,转向 Agentic Processing,也就是智能体式处理。
当你运行一个 agent 的时候,它会访问工作记忆、长期记忆、调用工具,这对存储的压力非常大。你还会看到 agent 与 agent 协作。有些 agent 用的是超大模型,有些是小模型;有些是 diffusion 模型,有些是自回归模型。也就是说,在这个数据中心内部,会同时存在各种各样完全不同类型的模型。我们打造 Vera Rubin,就是为了应对这种极度多样化的负载。
所以,过去我们是一家「有一个的机架」的公司,现在又新增了四种机架。换句话说,NVIDIA 的 TAM,也就是可服务市场,一下子扩大了,大约比以前高出 33% 到 50%。
而这新增的 33% 到 50% 里面,很大一部分会是存储处理器,也就是 BlueField;一部分,我个人非常希望是一大部分,会是 Groq 处理器;还有一部分会是 CPU;当然,也会有很多网络处理器。所有这些加在一起,最终都在运行 AI 革命中的那台「新型计算机」,也就是 agents。它就是现代工业的操作系统。
Chamath Palihapitiya(Social Capital 创始人|前 Facebook 高管|All-In 主持人):
那嵌入式应用呢?比如我女儿家里的泰迪熊,如果它想跟她说话,里面装的会是什么?是定制 ASIC 吗?还是说,未来在边缘和嵌入式场景里,会出现一个更广泛的 TAM,不同场景配不同工具?
注:ASIC 指 Application-Specific Integrated Circuit(专用集成电路),TAM 指 Total Addressable Market(总可服务市场)
黄仁勋:
我们认为,这个问题里其实有三台计算机。
第一台,在最大尺度上,是用来训练 AI 模型、开发 AI、创造 AI 的计算机。
第二台,是用来评估 AI 的计算机。比如你看看周围,到处都是机器人、汽车这类东西。你必须先把它们放进一个能够代表物理世界的虚拟环境里进行评估。也就是说,这个软件本身必须遵守物理定律。我们把这个系统叫做 Omniverse。
第三台,是部署在边缘侧的计算机,也就是机器人计算机。它可以是一辆自动驾驶汽车,也可以是一台机器人,甚至可以是一个小小的泰迪熊。
对于泰迪熊这种设备,其中一个非常重要的方向,是我们正在做的:把电信基站变成 AI 基础设施的一部分。这样一来,整个两万亿美元规模的电信产业,未来都会逐步变成 AI 基础设施的延伸。所以,无线电设备会变成边缘设备,工厂会变成边缘设备,仓库也一样。
总之,这三类基础计算机,全部都必不可少。
David Friedberg(The Production Board 创始人|All-In Podcast 主持人):
Jensen,去年我就觉得你比全世界都看得更早。你当时说,推理需求的增长不会只是 1000 倍。
黄仁勋:
我是不是把自己给坑了?
David Friedberg:
而是会增长 100 万倍?10 亿倍?对吧?
我觉得那时候很多人都认为这太夸张了,因为当时全世界都还盯着训练扩容。但现在你看,推理已经真正爆发了,而且开始变成「推理受限」。你现在又发布了一座「推理工厂」,吞吐量会比下一代工厂高出 10 倍。
可如果你去看外界的讨论,很多人会说:你的推理工厂要花 400 亿到 500 亿美元,而那些替代方案,例如定制 ASIC、AMD 等等,只要 250 亿到 300 亿美元,所以你会丢掉市场份额。
那你不如直接告诉我们:你到底看到了什么?你怎么看市场份额?这些客户花接近两倍的溢价,到底值不值得?
为什么更贵的系统,反而能生产更便宜的 token?
黄仁勋:
最重要的一点、最核心的一点是:不要把工厂的价格,等同于 token 的价格,也不要把它等同于 token 的成本。
很有可能,而且我可以证明,那座 500 亿美元的工厂,反而能生产出成本最低的 token。原因在于,我们生成这些 token 的效率高得惊人,能高出 10 倍。
你看,500 亿美元和 200 亿美元之间的差额,很多其实只是土地、电力和厂房外壳而已。除此之外,你本来就要买存储、网络、CPU、服务器、散热系统。所以,GPU 本身是原价还是半价,并不会让总成本从 500 亿直接降到 300 亿。你随便取一个自己喜欢的数字吧,更现实一点,可能只是从 500 亿降到 400 亿。
而如果一座 500 亿美元的数据中心,吞吐量却高出 10 倍,那么这点差价其实并不算什么。
Jason Calacanis:明白了。
黄仁勋:
这也是为什么我一直说:即使对很多芯片来说,如果你跟不上技术前沿、跟不上我们推进的速度,那哪怕芯片白送,也还是不够便宜。
David Sacks:
我想问一个更宏观的战略问题。你现在运营着全球最有价值的公司。明年收入可能超过 3500 亿美元,自由现金流 2000 亿美元,而且还在以疯狂的速度复利增长。
你到底是怎么做决策的?你怎么获取信息?大家现在都知道你那套著名的邮件体系,但你真正是怎么形成直觉、塑造市场、决定哪里该重注、哪里该收缩、哪里该进入新领域的?这些信息是怎么传递到你这里的?你又怎么做最终判断?
黄仁勋:
那就是 CEO 的工作。
David Sacks:
对。
黄仁勋:
我们的职责,就是定义愿景、定义战略。当然,我们会从公司里那些杰出的计算机科学家、技术专家,以及无数优秀员工那里得到启发和信息,但最终,塑造未来是我们的责任。
其中一部分判断标准是:这件事是不是难到离谱?如果不够难,我们就应该离它远一点。原因很简单,如果一件事很容易做,那竞争者一定会一大堆。
它是不是一件从未有人做过、而且难到离谱的事情?它是不是恰好又能调动我们公司独有的「超能力」?所以我得去寻找这样一个交汇点:它必须同时符合这些标准。
而且最后你还得知道,做这种事情一定会伴随着大量痛苦和折磨。没有任何伟大的发明,是因为它太简单、第一次就轻松成功。
如果一件事超级难、从来没人做过,那基本就意味着你会经历很多痛苦和磨难。所以你最好享受这个过程。
David Sacks:
你能不能挑三四个更「长尾」的业务讲讲?比如你说的数据中心上太空、ADAS 和汽车,还有生物方向。给我们一点感觉:这些曲线什么时候会开始向上拐点?这些长期业务你怎么看?
注:ADAS 指 Advanced Driver Assistance Systems(高级驾驶辅助系统)
黄仁勋:
当然。Physical AI(物理 AI) 是一个很大的类别。我刚才说过,我们有三种计算系统,以及建立在其上的所有软件平台。Physical AI 是科技行业第一次真正有机会去服务一个 50 万亿美元规模、过去几乎没有被技术深度改造的产业。为了做到这一点,我们必须把全部所需技术重新发明出来。
我一直觉得这是一段 10 年旅程。我们 10 年前就开始了,现在终于看到它开始拐点向上。对我们来说,这已经是一项数十亿美元级业务了,现在的规模已经接近每年 100 亿美元。所以它已经是一个很大的生意,而且还在指数级增长。这是第一点。
第二个方向,我觉得在数字生物学上,我们真的已经非常接近它的 ChatGPT 时刻了。
我们正在逐步学会如何表示和理解基因、蛋白质、细胞。化学物质,我们已经知道怎么处理了。所以,能够表示并理解生物学的基本构件及其动态行为,这件事我认为大概会在两三年到五年内发生。五年之内,我非常相信,数字生物学会对整个医疗健康行业造成巨大冲击。
这些都是非常重要的方向。农业也是其中之一。
Chamath Palihapitiya:
已经开始发生了。
黄仁勋:
毫无疑问。
Jason Calacanis:
我想把话题从数据中心拉回桌面端。公司早期很大程度上就是建立在爱好者、游戏玩家以及显卡用户之上的。你今天在台上、面对大概一万名观众时,提到了 Claude Code、OpenClaw,还有 agent 带来的革命。
尤其是爱好者群体,我们看到现在大量能量和创新其实都在他们那里爆发,很多突破都发生在桌面端。你这次也发布了一台桌面设备,我记得是 Dell 60800?这是一台非常强大的工作站,可以跑本地模型,拥有 750GB 内存。现在 Mac Studio 到处都卖断货了。我们公司现在全面转向 OpenClaw。Friedberg 在用,Chamath 也在用,大家都非常痴迷。
从爱好者开始的这种开源 agent 运动、桌面端开源生态,对你意味着什么?它会走向哪里?
Agent 时代来了:计算需求为什么会再膨胀一万倍
黄仁勋:
首先,退一步看。过去两年,我们其实看到了三次拐点。
第一次是生成式 AI。ChatGPT 把 AI 带入大众视野,让每个人都意识到它的重要性。其实这项技术在 ChatGPT 出现前几个月,就已经清清楚楚地摆在那里了。只是直到 ChatGPT 给它套上了一个人人都能使用的界面,生成式 AI 才真正爆发。
而生成式 AI,正如你所知,会生成 token,既供内部消费,也供外部消费。内部消费,本质上就是「思考」,而这进一步推动了推理的发展。
接着,越来越多接地气、基于真实信息的能力开始出现,让 AI 不再只是回答问题,而是能给出更可靠、更有用的答案。你也开始看到 OpenAI 的收入和商业模式出现拐点式上扬。
然后,第三次拐点一开始其实只在行业内部可见,那就是 Claude Code。这是第一个真正非常有用的 agentic 系统,极具革命性。
但在 Claude Code 之前,这套能力主要只面向企业,很多圈外人根本没见过。直到 OpenClaw 把「AI agent 到底能做什么」带进大众视野。
所以,OpenClaw 在文化层面的重要性就在于:它第一次真正让公众意识到 agent 的能力。
它之所以重要的第二个原因,是因为 OpenClaw 是开放的。
更关键的是,它构造出了一种全新的计算模型,几乎是在重新发明计算本身。它有记忆系统:scratch 是短期记忆,文件系统是长期资源;它有调度能力;可以跑 cron job;可以生成新的 agent;可以分解任务、进行因果推理、解决问题;它还有 I/O 子系统,可以输入、输出、连接 WhatsApp;它还有一套 API,可以运行不同类型的应用,也就是所谓的 skills。
而这四个元素,本质上就定义了一台计算机。所以,我们现在实际上第一次拥有了:个人人工智能计算机。
而且它是开源的,真正开源,几乎可以运行在任何地方。这就是现代计算的蓝图。从某种意义上说,它已经是现代计算的操作系统,而且未来会无处不在。
当然,我们还必须帮它解决一件事:只要你拥有 agentic 软件,它就可能接触敏感信息、执行代码、对外通信。所以我们必须确保:这一切都要受到治理,要足够安全,要有策略约束,让这些 agent 可以拥有三种能力中的两种,但不能同时拥有全部三种。
在治理这一块,我们也做了贡献。Peter Steinberger 今天也在场。我们有很多很棒的工程师在和他合作,帮助把这个系统做得更安全、更稳健,让它既能保护隐私,也能保护安全。
Chamath Palihapitiya:
Jensen,这种范式转移,是不是已经让美国各地过去通过的很多 AI 监管法案开始显得过时了?
很多提案原本都是建立在旧模型上的。你能不能谈谈,这种范式变化有多快地让一大批原有的监管思路失效?现在 AI 监管已经成了美国政治里一个非常热门的话题。
黄仁勋:
这一部分,我们必须始终走在政策制定者前面,你在这方面做得非常好。我们必须主动走到他们面前,告诉他们现在技术发展到了什么阶段,它是什么、又不是什么。它不是生命体,不是外星人,没有意识
免责声明:
1.资讯内容不构成投资建议,投资者应独立决策并自行承担风险
2.本文版权归属原作所有,仅代表作者本人观点,不代币币情的观点或立场
首页
快讯