黄仁勋深度访谈:英伟达的护城河远超芯片本身

牛BB的1 小时前
英伟达构建的计算体系与开发者生态,正在定义AI的运行方式与产业格局。

视频标题:Jensen Huang: – Will Nvidia』s moat persist? 视频作者:Dwarkesh Patel 编译:Peggy,BlockBeats 编者按:当外界仍在讨论「英伟达的护城河是否来自供应链」时,这场对话认为,真正难以复制的,并非芯片本身,而是将「电子转化为 Token」的整套系统能力——即从计算架构、软件体系到开发者生态的协同运作。 本文编译自 Dwarkesh Patel 与 Jensen Huang(黄仁勋)的对谈。Dwarkesh Patel 是当下硅谷最受关注的科技播客主持人之一,主理 YouTube 频道 Dwarkesh Podcast,以深度研究型访谈见长,长期对话 AI 研究者与科技产业核心人物。

黄仁勋播客实录:英伟达的护城河,比芯片深得多

右侧为 Dwarkesh Patel,左侧为 Jensen Huang 围绕这一核心,这场对谈可以从三个层面来理解。

其一,是技术与产业结构的变化。 英伟达的优势并不止于硬件性能,而在于 CUDA 所承载的开发者生态,以及围绕计算栈形成的路径依赖。在这一体系中,算力不再是唯一变量,算法、系统工程、网络与能效共同决定了 AI 的推进速度。这也引出一个重要判断:软件不会因 AI 而被简单「商品化」,相反,随着 Agent 的普及,工具调用将呈指数级增长,软件的价值反而被进一步放大。

其二,是商业边界与策略选择。 面对不断扩张的 AI 产业链,英伟达选择「做必要的一切,但不做全部」。它不进入云计算,也不进行过度垂直整合,而是通过投资与生态扶持放大整体市场规模。这种克制,使其既保持了关键控制力,又避免成为生态的替代者,从而将更多参与者纳入其技术体系之中。

其三,是关于技术扩散与产业格局的分歧。 对话中最具张力的部分,并不在于具体结论,而在于如何理解「风险」本身。一种观点强调算力领先所带来的先发优势,另一种则更关注技术扩散过程中生态与标准的长期归属。相较于短期能力差距,更关键的问题或许在于:未来的 AI 模型与开发者,究竟运行在哪一套技术体系之上。

换句话说,这场竞争的终局,不只是「谁率先做出更强的模型」,而是「谁定义了模型运行的基础设施」。 在这个意义上,英伟达的角色,已不再只是芯片公司,而更接近 AI 时代的「底层操作系统提供者」——它试图确保,无论计算能力如何扩散,价值生成的路径,仍然围绕自身展开。

以下为原文内容(为便于阅读理解,原内容有所整编): TL;DR ·英伟达的护城河不在「芯片」,而在「从电子到 Token 的整套系统能力」。核心不是硬件性能,而是把计算转化为价的全栈能力(架构 + 软件 + 生态)。 ·CUDA 的本质优势不是工具,而是全球最大 AI 开发者生态。开发者、框架、模型全部绑定在同一技术栈上,形成难以替代的路径依赖。 ·AI 竞争的关键不只是算力,而是「计算栈 × 算法 × 系统工程」的组合。架构、网络、能效、软件协同带来的提升,远超单纯制程进步。 ·算力瓶颈是短期问题,供给会在 2–3 年内被需求信号驱动补齐。真正的长期约束不是芯片,而是能源与基础设施。 ·AI 软件不会被商品化,反而会因 Agent 爆发带来工具使用的指数级增长。未来不是软件变便宜,而是软件调用次数暴涨。 ·不做云是英伟达的核心策略:做「必要的一切」,但不吞掉整个价值链。通过投资与生态扶持,而不是垂直整合,放大整体市场规模。 ·真正的战略风险不是对手获得算力,而是全球 AI 生态不再基于美国技术栈。一旦模型与开发者迁移,长期技术标准与产业主导权将随之转移。 访谈内容 英伟达护城河在哪里:供应链,还是「电子到 Token」的控制权? Dwarkesh Patel(主持人): 我们已经看到,很多软件公司的估值出现了下滑,因为大家预期 AI 会把软件变成一种标准化商品。还有一种可能略显天真的理解方式,大致是这样:你看,从设计文件(GDS2)交给台积电,台积电负责制造逻辑芯片、晶圆,构建开关电路,然后再和 SK 海力士、美光、三星生产的 HBM 一起封装,最后送到 ODM 去组装成整机机架。 注:HBM(High Bandwidth Memory,高带宽内存)是一种专门为高性能计算和 AI 设计的先进内存技术;ODM(Original Design Manufacturer,原始设计制造商)是指不仅负责生产,还负责产品设计的代工厂商 所以,从这个角度看,英伟达本质上是在做软件,而制造是由别人完成的。如果软件被商品化了,那英伟达也会被商品化。 Jensen Huang(黄仁勋,英伟达 CEO): 但归根结底,总得有一个过程,把电子转化为 token。从电子到 token,并让这些 token 随时间变得更有价值,这种转化我认为很难被完全商品化。 从电子到 token 的转化,本身就是一段非常非凡的过程。而让一个 token 更有价值,就像让一个分子比另一个分子更有价值一样,是让一个 token 比另一个 token 更有价值。 在这个过程中,包含了大量的艺术、工程、科学和发明,才让这个 token 具备价值。 显然,我们正在实时地观察这一切发生。所以这个转化过程、制造过程,以及其中涉及的各种信号,其实远远没有被完全理解,这段旅程也远未结束。所以我不认为那种情况会发生。 当然,我们会让它变得更高效。事实上,你刚才描述问题的方式,其实就是我对英伟达的一个心智模型:输入是电子,输出是 token,中间这一段就是英伟达。 我们的工作,是在「尽可能做必要的事情,同时尽可能少做不必要的事情」,以实现这种转化,并让它具备极高的能力。 我说的「尽可能少做」,是指凡是我们不需要自己做的部分,我们就会和别人合作,把它纳入我们的生态。如果你看今天的英伟达,我们在上游供应链和下游供应链,可能都拥有规模最大的合作生态之一。从计算机厂商、应用开发者,到模型开发者——你可以把 AI 看作一个「五层蛋糕」。而我们在这五个层级上都有生态布局。 相关阅读:《英伟达黄仁勋最新文章:AI 的「五层蛋糕」》 所以我们尽量少做,但我们必须做的那一部分,其实是极其困难的。而我不认为那一部分会被商品化。 事实上,我也不认为企业软件公司本质上是在做「工具制造」。不过现实是,今天大多数软件公司确实是工具提供者。 当然也有例外,有些是在做工作流系统的编码与固化,但很多公司本质上是工具公司。 比如 Excel 是工具,PowerPoint 是工具,Cadence 做的是工具,Synopsys 也是工具。 Jensen Huang: 而我看到的趋势,恰恰和很多人的看法相反。我认为 agent 的数量会指数级增长,工具的使用者数量也会指数级增长。 各种工具的调用实例数量也很可能会激增。比如 Synopsys Design Compiler 的使用实例,很可能会大幅增长。 会有大量 agent 使用 floor planner、版图工具、设计规则检查工具。 今天,我们受限于工程师的数量;而明天,这些工程师会被大量 agent 支持,我们将以前所未有的方式去探索设计空间。当你用上今天这些工具时,这种变化会非常明显。 工具的使用会推动这些软件公司实现爆发式增长。这种情况之所以还没有发生,是因为现在的 agent 还不够擅长使用工具。 所以,要么这些公司自己去构建 agent,要么 agent 本身变得足够强,能够使用这些工具。我认为最终会是两者的结合。 Dwarkesh Patel 我记得在你们最新的披露中,你们在边界组件、内存、封装等方面有接近 1000 亿美元的采购承诺。而 SemiAnalysis 的报告认为,这个数字可能会达到 2500 亿美元。 一种解读是,英伟达的护城河在于你们锁定了未来多年这些稀缺组件的供给。也就是说,别人可能也能做加速器,但他们能拿到足够的内存吗?能拿到足够的逻辑芯片吗? 这是不是英伟达未来几年的核心优势? Jensen Huang: 这是我们能做到、但别人很难做到的一件事。我们之所以能在上游做出巨大的承诺,一部分是显性的,也就是你提到的这些采购承诺;另一部分是隐性的。 比如,上游很多投资其实是我们的供应链伙伴做的,因为我会对他们的 CEO 说:让我告诉你这个行业会有多大,让我解释为什么会这样,让我和你一起推演,让我告诉你我看到的是什么。 通过这样的过程——传递信息、激发愿景、建立共识——我在和上游不同行业的 CEO 对齐,他们才愿意去做这些投资。 那为什么他们愿意为我投资,而不是为别人?因为他们知道,我有能力买下他们的产能,并通过我的下游把它消化掉。正是因为英伟达的下游需求和供应链规模如此之大,他们才愿意在上游进行投资。 你看 GTC,大会的规模让很多人感到震撼。它本质上是一个 360 度的 AI 宇宙,把整个行业聚在一起。大家聚在一起,是因为他们需要彼此看见。我把他们聚在一起,让上游看到下游,下游看到上游,同时让所有人看到 AI 的进展。 更重要的是,他们可以接触到 AI 原生公司和初创企业,看到正在发生的各种创新,从而亲眼验证我所说的那些判断。 所以我花了很多时间,直接或间接地向我们的供应链和生态伙伴解释眼前的机会。很多人会说,我的 keynote 不像传统发布会那样一个接一个宣布产品,而是有一部分听起来像是在「上课」。而这其实正是我的目的。 我需要确保整个供应链——无论上游还是下游——都理解:接下来会发生什么、为什么会发生、什么时候发生、规模会有多大,并且能够像我一样系统性地去推理这些问题。 所以你刚才说的那种「护城河」,确实存在。如果未来几年这个市场达到万亿美元规模,我们有能力去构建支撑它的供应链。就像现金流一样,供应链也有流动和周转。如果一个架构的业务周转不够快,没有人会为它建立供应链。我们之所以能维持这样的规模,是因为下游需求极其强劲,而且大家都能看到这一点。 正是这一点,让我们能够以现在这样的规模去做这些事情。 Dwarkesh Patel 我还是想更具体地理解一下,上游能不能跟得上。过去很多年,你们的收入基本是逐年翻倍,提供给全球的算力规模甚至是三倍增长。 Jensen Huang: 而且是在这个体量下继续翻倍。 Dwarkesh Patel 对。所以如果你看逻辑芯片,比如你们是台积电 N3 制程最大的客户之一,在 N2 上也是主要客户之一。 根据一些分析,今年 AI 可能会占 N3 产能的 60%,明年甚至可能达到 86%。 注:N3 指的是 TSMC 的 3 纳米(3nm)制程节点(process node),可以理解为台积电当前一代最先进的芯片制造工艺之一 那在你已经占据这么大比例的情况下,你怎么还能继续翻倍?而且是每年都翻倍?我们是不是进入了一个阶段,AI 算力的增长必须因为上游限制而放缓?有没有办法绕开这些限制?我们到底要怎么做到每年建出两倍的晶圆厂? Jensen Huang: 在某些时刻,瞬时需求确实会超过整个行业的供给,无论是上游还是下游。而且在某些情况下,我们甚至会被水管工的数量限制住——这是真的发生过的。 Dwarkesh Patel : 那明年的 GTC 应该邀请水管工了。 Jensen Huang: 对,这其实是个好现象。你希望处在这样一个市场里:瞬时需求是大于整个行业总供给的。反过来当然就不太好了。 如果两者差距太大,某一个具体环节、某一个组件成为明显瓶颈,整个行业就会一拥而上去解决它。比如说,我注意到现在大家已经不太讨论 CoWoS 了。原因是过去两年,我们对它进行了极大规模的投入和扩展,翻了好几倍。 现在我觉得整体已经处在一个比较好的状态。台积电也已经意识到,CoWoS 的供应必须跟上逻辑芯片和内存的需求增长。所以他们在扩展 CoWoS,同时也在扩展未来的先进封装技术,而且是按照和逻辑芯片同样的节奏在扩展。 这非常重要,因为过去 CoWoS 和 HBM 内存都更像是「特种能力」,但现在已经不是了。现在大家已经意识到,它们是主流计算技术的一部分。 同时,我们现在也更有能力去影响更大范围的供应链。在过去,在 AI 革命刚开始的时候,我现在说的这些判断,其实五年前就已经在讲了。 当时有些人相信并投入了,比如美光的 Sanjay 团队。我至今还记得那次会议,我当时非常清楚地讲了未来会发生什么、为什么会发生,以及今天这些结果的预测。他们当时选择大幅加码,我们也和他们建立了合作关系。在 LPDDR、HBM 等多个方向上,他们都进行了投入,这对他们来说显然带来了很大的回报。也有一些公司是后来才跟上的,但现在大家都已经进入这个阶段了。 所以我认为,每一代技术、每一个瓶颈,都会得到大量关注。而现在,我们已经在提前几年「预取」这些瓶颈。比如我们和 Lumentum、Coherent,以及整个硅光(silicon photonics)生态的合作。过去几年,我们实际上重塑了整个生态和供应链。 在硅光方面,我们围绕台积电建立了完整的供应链,与他们合作开发技术,发明了很多新的技术,并把这些专利授权给供应链,保持生态的开放。我们通过发明新技术、新工作流程、新测试设备(包括双面探测等),投资相关公司、帮助它们扩产,来为供应链做准备。 所以你可以看到,我们是在主动塑造这个生态,让供应链能够支撑未来的规模。 Dwarkesh Patel: 听起来有些瓶颈比其他的更容易解决。比如说,相比扩展 CoWoS 更难的那些 Jensen Huang: 我刚才其实举的是最难的那个例子。 Dwarkesh Patel: 哪个? Jensen Huang: 水管工。对,是真的。我刚才说的是最难的那个——水管工和电工。原因在于,这也让我对一些「末日论者」的说法有点担忧,他们总是在谈工作会消失、岗位会被替代。如果我们因此劝人不要去做软件工程师,那未来就真的会缺软件工程师。 类似的预测,十年前也出现过。当时有人说:「无论你做什么,都不要去当放射科医生。」你现在还能在网上找到那些视频,说放射科会是第一个被淘汰的职业,世界将不再需要放射科医生。但现实是,我们现在反而缺放射科医生。 Dwarkesh Patel: 好,那回到刚才的问题:有些环节可以扩展,有些不行。那具体来说,逻辑芯片的产能怎么翻倍?毕竟真正的瓶颈在这里,内存和逻辑都是限制因素。那 EUV 光刻机呢?你怎么做到每年把它的数量也翻一倍? Jensen Huang: 这些都不是做不到的事情。确实,快速扩产不容易,但在两到三年内把这些事情做到,其实并不难。关键是要有明确的需求信号。一旦你能造出一台,就能造出十台;一旦能造出十台,就能造出一百万台。所以这些东西本质上并不难复制。 Dwarkesh Patel: 那你会把这种判断传达到供应链多深?比如你会不会去找 ASML,说:如果我往后三年看,为了让英伟达年收入达到 2 万亿美元,我们需要更多的 EUV 光刻机? Jensen Huang: 有些我会直接做,有些是间接推动。如果我能说服台积电,那 ASML 自然也会被说服。所以我们要识别关键的瓶颈点。但只要台积电相信这个趋势,几年之后你就会有足够的 EUV 设备。 我的意思是,没有任何一个瓶颈会持续超过两到三年,没有一个。 与此同时,我们也在提升计算效率。从 Hopper 到 Blackwell,大约提升了 10 倍、20 倍,有些情况下甚至达到 30 到 50 倍。我们也在不断提出新的算法。因为 CUDA 足够灵活,我们可以开发出各种新方法,在扩充产能的同时提升效率。 所以这些事情都不会让我担心。真正让我担心的,是我们下游之外的因素,比如能源政策。没有能源,你就无法扩张;没有能源,你就无法建立一个产业;没有能源,你就无法建立一个全新的制造业体系。 现在我们想推动美国再工业化,想把芯片制造、计算机制造、封装带回美国,同时建设电动车、机器人这些新产业。当我们在建设 AI 工厂时,这些都离不开能源,而能源相关的建设周期很长。相比之下,增加芯片产能,是一个两三年的问题;增加 CoWoS 产能,也是两三年的问题。 Dwarkesh Patel: 挺有意思的。我感觉我采访过的一些嘉宾,给出的判断正好相反。只是这个问题上,我确实没有足够的技术背景来做判断。 Jensen Huang: 不过,好的一点是,你现在是在和专家对话。 Google 的 TPU 会动摇英伟达的地位吗? Dwarkesh Patel: 对,确实。我想问一下你的竞争对手。如果看 TPU,可以说现在全球前三的大模型里,有两个——Claude 和 Gemini——是用 TPU 训练的。这对英伟达未来意味着什么? 注:TPU(Tensor Processing Unit,张量处理单元)是由 Google 专门为人工智能(尤其是深度学习)设计的一类专用芯片 Jensen Huang: 我们做的是完全不同的东西。英伟达构建的是「加速计算」(accelerated computing),而不是张量处理单元(TPU)。 加速计算可以用于各种各样的任务,比如分子动力学、量子色动力学,也用于数据处理、数据框架、结构化数据、非结构化数据,还用于流体力学、粒子物理,当然也包括 AI。所以,加速计算的应用范围要广得多。 虽然现在大家的讨论集中在 AI 上,AI 确实非常重要、影响也很大,但「计算」本身的范围要比 AI 广得多。英伟达所做的,是把计算方式从通用计算重新发明为加速计算。我们的市场覆盖范围远远大于任何 TPU 或其他专用加速器所能覆盖的范围。 如果看我们的定位,我们是唯一一家可以加速各种类型应用的公司。我们拥有庞大的生态系统,各种框架和算法都可以运行在英伟达平台上。而且,我们的计算机系统是为「由他人来运营」而设计的。任何运营者都可以购买我们的系统来使用。 大多数自研系统并不是为他人使用而设计的,你基本上必须自己来运营它们,因为它们从一开始就没有被设计成足够灵活,供他人使用。正因为我们的系统任何人都可以运营,我们进入了所有主要平台,包括 Google、Amazon、Azure、OCI 等。 无论你是为了出租算力来运营系统,还是自己使用系统,如果你要做租赁业务,你就必须拥有一个覆盖多个行业的大规模客户生态来承接这些需求。如果你是为了自己使用而运营系统,我们当然也有能力帮助你完成这件事。比如说,Elon 的 xAI。 因为我们可以让任何行业、任何公司的运营者都能够使用我们的系统,你可以用它来为像 Lilly 这样的公司构建超级计算机,用于科学研究和药物发现。我们可以帮助他们运营自己的超级计算机,并将其用于整个药物研发和生物科学的各种应用场景,而这些都是我们可以加速的领域。 所以我们可以覆盖大量应用场景,而 TPU 做不到这一点。英伟达构建的 CUDA,本身也可以作为一个非常出色的张量处理平台,但它不仅仅是这样,它覆盖了数据处理、计算、AI 等整个生命周期。所以我们的市场机会要大得多,覆盖范围也更广。而且因为我们现在基本支持全球所有类型的应用,你可以在任何地方部署英伟达系统,并且可以确信一定会有客户来使用它。 所以这本质上是完全不同的一种东西。 Dwarkesh Patel : 这个问题会稍微长一点。 你们现在的收入非常惊人,而且这些收入主要并不是来自制药或量子计算。你们不是靠这些业务每季度赚 600 亿美元,而是因为 AI 是一项前所未有、而且正在以前所未有速度推进的技术。 所以问题是:如果只看 AI,本身最优的方案是什么?我不是做底层的,但我和一些 AI 研究员朋友聊过,他们会说:当我使用 TPU 时,它是一个很大的阵列,非常适合做矩阵乘法;而 GPU 更灵活,适合处理大量分支和不规则内存访问。 但如果你看 AI,本质上是不是就是一遍又一遍、非常可预测的矩阵乘法?那你其实不需要为 warp 调度、线程切换、内存 bank 等等这些功能去占用芯片面积。所以 TPU 在当前这波算力需求和收入增长中,针对主要应用场景是高度优化的。 你怎么看这个观点? Jensen Huang: 矩阵乘法确实是 AI 中一个重要部分,但它并不是 AI 的全部。 如果你想提出一种新的 attention 机制,或者用不同方式来做计算;如果你想设计一种全新的架构,比如 hybrid SSM;如果你想构建一种融合 diffusion 和 autoregressive 的模型——你需要的是一个通用可编程的架构,而我们可以运行你能想到的任何东西。 这就是我们的优势,它让新算法的发明变得容易得多。正因为这是一个可编程系统,而不断发明新算法,正是 AI 能够如此快速进步的原因。 TPU 和其他任何硬件一样,也受到摩尔定律的影响。我们知道摩尔定律大约每年带来 25% 的提升。所以如果你想实现 10 倍、100 倍的跃升,唯一的方式是每年都从根本上改变算法以及它的计算方式。 这正是英伟达的核心优势。 我们之所以能让 Blackwell 相比 Hopper 实现大幅提升——我当时说是 35 倍——当我第一次宣布 Blackwell 的能效会比 Hopper 提高 35 倍时,没有人相信。 后来 Dylan 写了一篇文章,说其实我还保守了,真实提升更接近 50 倍,而这种提升不可能仅靠摩尔定律实现。我们解决这个问题的方法,是引入新的模型结构,比如 MoE,并把计算进行并行化、解耦、分布式处理,扩展到整个计算系统中。如果没有能力深入到底层、用 CUDA 去开发新的计算内核,这些是很难做到的。 注:指 Dylan Patel 半导体与 AI 基础设施领域的知名分析师,研究机构 SemiAnalysis 创始人 所以我们的优势在于:架构的可编程性,以及英伟达作为一家高度协同设计的公司。我们甚至可以把一部分计算卸载到互连架构中,比如 NVLink,或者网络层,比如 Spectrum-X。也就是说,我们可以在处理器、系统、互连、软件库、算法这些层面同时推动变化。所有这些都是同时完成的。如果没有 CUDA 来支撑这一切,我甚至不知道该从哪里开始。 Dwarkesh Patel: 这也引出了一个关于英伟达客户结构的问题:如果你们 60% 的收入来自这五大超大规模云厂商(hyperscalers),在另一个时代、面对不同类型的客户,比如做实验的教授,他们会非常依赖 CUDA。他们不能用别的加速器,只能用 PyTorch + CUDA,并且需要一切都被优化好。 但如果是这些超大规模云厂商,他们有能力自己写内核。事实上,他们也必须这么做,去榨取最后那 5% 的性能。Anthropic、Google 很多时候在用自研加速器或者 TPU 来

免责声明:

1.资讯内容不构成投资建议,投资者应独立决策并自行承担风险

2.本文版权归属原作所有,仅代表作者本人观点,不代币币情的观点或立场