Cerebras深度解析:超大芯片的商业价值与技术挑战
狂人币记2 小时前
Cerebras CEO Andrew Feldman 演讲时手里常拿一块东西:一片晚餐盘那么大的"芯片",面积是 NVIDIA H100 的 56 倍。过去,芯片产业做同一件事:切割,把一片晶圆切成几十上百颗小芯片,再封装、连线、组集群。现在,Cerebras 反过来:别切了——把整片晶圆做成一颗芯片,内存全部焊死在芯片本体上。Cerebras 赌的是一件具体的事:大模型推理的瓶颈,在芯片之间的搬运。认可的人不少。OpenAI 给它签了 200 亿美元合同,还借给它 10 亿美元向台积电买晶圆。 无论是否认同这条路线,Cerebras 都会在很长一段时间里占据 AI 产业链的焦点位置,会是接下来几个月美股中比较受人关注的股票,今天用大白话把这家公司讲透。 一、Cerebras 是一家什么公司 1、生意模式没同类 Cerebras 做的是 AI 推理算力,但卖法和 NVIDIA 完全不同——它自己设计芯片、自己组装整机、自己建数据中心、自己运营云服务,把算力直接卖给客户用。客户用多少付多少,或者像包月一样直接包下一块产能。也就是说,它是芯片公司 + 整机集成商 + 数据中心运营商 + 推理云服务商,四件事它一家全做了。这种"什么都自己来"的模式,是理解这家公司后面所有数字的起点。市面上暂时没有第二家这么干的。 2、创始人和一桩 2007 年的旧案 CEO Andrew Feldman 是连续创业者,上一家公司 SeaMicro 卖给了 AMD(3.34-3.57 亿美元),商业上证明过自己。但 S-1/A 里有一段旧案值得了解。2000-2003 年,Feldman 在 Riverstone Networks 任市场副总裁。这家公司 2001 年 IPO,2006 年 SEC 起诉其前管理层虚假抬高收入——通过 contingent sales(有条件销售)把不该确认的收入提前确认了。Feldman 是被告之一。 2007 年的处理结果(来自联邦法院记录): 民事——签署永久禁令,不承认也不否认指控,需缴纳 disgorgement 28.95 万美元 刑事——Feldman 承认一项联邦重罪,违反公开公司内部会计控制(Exchange Act Section 13(b)(5) and 32) 量刑——3 年缓刑 + 5,000 美元罚款 这件事在 S-1/A 里合规披露了,缓刑早已结束,法律层面没有持续影响。但它在今天仍然有参考价值,原因有三层: 第一,Cerebras GAAP 转盈利的操作有点虚。2025 年 +2.378 亿美元的 GAAP 净利润里,有 3.633 亿来自 G42 远期合同负债注销的非现金会计收益。这不是造假,是合规的 GAAP 处理。但它不是简单记账,而是很吃管理层判断:什么时候确认、确认多少、是不是一次性确认,都会直接改变当年的利润。 第二,Riverstone 案件的本质恰好是"会计判断驱动的收入虚增"。当年的指控就是把会计判断的边界推到极限。 第三,Cerebras 的报表里有一类东西特别多。OpenAI 白送股权要算多少"隐形折扣"从收入里扣、G42 那笔 4 亿欠款怎么变成会计利得、数据中心成本怎么同时计进收入和成本,这些都不是机械记账,全靠管理层做判断。一个会计判断违规过的 CEO,开了一家高度依赖会计判断的公司,估值上可能要纳入考虑。 3、连续四年的内控缺陷 CEO 19 年前的旧案可以说"过期",但 S-1/A 里还有一件事更值得注意:Cerebras 2022 至 2025 四年的财务报表中,都识别出了内部控制重大缺陷(Material Weaknesses)。这是这个框架下最严重的等级,按 SEC 定义意味着公司有合理可能性出现报表错报且无法被及时发现纠正。 招股书披露的缺陷集中在两类: 会计与财务资源不足,影响收入确认、存货管理、成本核算、数据中心资产会计 IT 通用控制不充分,职责分离不足、系统访问权限管理薄弱 根据 JOBS 法案下的"新兴成长公司"(EGC),IPO 后最多 5 年内可以免于外部审计师的独立验证。也就是说,Cerebras 自己说"我们在修复内控",但 2026 年起的 5 年内,没有外部审计师被法律强制要求独立核实"到底修好了没"。 把这两件事放在一起看——
这是高于行业平均的治理风险。 4、会计手法:从亏损变为了盈利 Cerebras 早期最大的客户和最大的股东都是 G42——阿布扎比的 AI 公司。2024 年 9 月第一次提交 S-1 之后,美国外国投资委员会(CFIUS)对 G42 入股 Cerebras 启动了国家安全审查。审查持续约 12 个月,2025 年 10 月以"G42 股份重组为无投票权股票 + 部分退出资本表"结束。2026 年 4 月重新提交 S-1 时,G42 已不再被列为投资人(但仍是大客户)。 这次重组在会计上留下了一个关键尾巴—— 第一步(2024):Cerebras 和 G42 签了一份远期股权预付合同,G42 提前付了 4.01 亿美元,约定未来按某价格换 Cerebras 股权。这笔钱进了 Cerebras 账上,但因为还没正式换成股权,会计上记为"负债"(欠 G42 一笔股权)4.01 亿。 第二步(2025):G42 重组退出,这份远期股权合同被取消。按 GAAP,这笔 4.01 亿负债当中的 3.633 亿要被一次性记成"利得"——是会计纸面上的利得,没有任何现金流入流出。 第三步(账面效果):这 3.633 亿非现金会计收益直接抬高了 2025 GAAP 净利润,让 Cerebras 从经营层面持续亏损(-1.46 亿)的状态,账面上变成净利润 +2.38 亿"看起来转正"。 一句话:2025 年的 GAAP 转正不是公司赚到了钱,而是一笔 2024 年欠下的"股权债"被勾销的会计结果。剥掉这个一次性非现金项目,2025 年经营层面比 2024 年亏得更多。 5、上市 预计本周四(5/14)上市,发行价已经连续上调,5/10 Reuters 报道再次上调至150~160,发行 3000 万股,募资额从 35 亿提升到 48 亿。按 $160 上限计算,完全摊薄市值最高约 488 亿美元(基础流通股口径约 340 亿),20 倍超额认购,一周内两次上调发行区间。这是一个散户火热、上市前已经加了溢价的项目。 时机本身也不是巧合——SpaceX 的 IPO 预计在 2026 下半年开始密集筹备,Cerebras 在这之前抢着上,部分意图就是要拿到这一波"AI 基础设施 + IPO 窗口期开放"的稀缺定价。 二、技术:它靠什么做生意 1、把一整片晶圆做成一颗芯片 Cerebras 的做法是把 12 寸圆形硅晶圆直接做成一整块芯片,不需要中间再连接,数据全在一起。这件事专业上叫"晶圆级整合"。 具体的对比:WSE-3 的 44 GB SRAM 是直接做在晶圆上的片上内存,而 H100 主要依赖外部 HBM。两者不是同一种存储——H100 也有片上 cache,但只有 50 MB 级别。Cerebras 的优势不是"总显存更大"(44 GB SRAM 实际比 H100 的 80 GB HBM 还小一半),而是把大量高速 SRAM 和计算核心放在同一片晶圆里,减少了搬运距离。 若拿 WSE-3 的片上 SRAM 带宽(21 PB/s)与 H100 的 HBM 带宽(3.35 TB/s)相比,前者数量级高出约 6,000 倍。但这是不同存储层级的比较,不能直接等价为实际推理速度优势——实测速度差距远小于带宽比。 2、它的解决方案 我们和 AI 聊天,比如问"我怎么才能赚更多钱",背后发生两件事。 第一件叫 prefill——模型读懂这句问题。这一步可以并行运算,吃的是算力本身。 第二件叫 decode——模型一个字一个字把答案吐出来。下一个字必须等上一个算完才能开始,没法并行。所以我们看到 AI 是一个字一个字往外打的。而且每吐一个字,模型都要把全部参数从头读一遍。 可以把大模型想成一本巨厚的规则书。在 GPU 架构里,这本书放在 HBM 高速显存里,GPU 负责计算,每生成一个 token 就要从 HBM 读取大量参数。HBM 已经很快,但模型太大、读取太频繁——GPU 很多时候不是算力不够,是等数据从显存搬过来。 Cerebras 的路线,就是把计算核心和片上 SRAM 做进同一整片晶圆里,减少这一路上的数据搬运距离。 GPU 是"厨师很强,但调料还要不断从高速货架上搬过来";Cerebras 是"把更多调料直接放到厨师手边"。这就是它在低延迟 decode 场景里能跑得更快的底层原因。 3、主要优势 Cerebras 的硬件优势集中在一句话——低 batch、低延迟、高价值推理。 Cerebras 的优势在于所有东西都在一块晶圆上,但很明显,一块晶圆上的内存还是有上限的,如果模型超过了这块板上的内存,优势就缩小了。第三方机构 Artificial Analysis 实测的数据:把 Cerebras 和 NVIDIA DGX B200 进行速度测试,如果是 Llama 3.1 8B 的小模型,全放在芯片上,速度优势高达 18-36X;但如果是 400B 的大模型,需要走通信成本,就只有 2.4X。 所以,模型越小,Cerebras 的优势越大;模型越大、越要走外部 DRAM 流式加载权重,优势被通信吃掉。 另外是看 batch。batch 本质上是拼单,多个用户请求一起计算、一次读取模型参数。拼单越充分,GPU 的单位成本越低,Cerebras 的低延迟优势就会被稀释。batch 越大,GPU 越能追回来。 对应到产品策略: GPU 适合高并发、低成本的大众推理 Cerebras 更适合编程助手、AI Agent、实时语音、金融研究这类"时间比算力更贵"的场景 GPU 是一次服务一大群顾客,Cerebras 是专门服务一个顾客——但只能服务那些高客单价的用户,否则会亏本。 4、服务模式:既做设计,又做整机,又做云 Cerebras 不是想这样,而是没办法。 WSE-3 一颗 12 寸晶圆做成的非标芯片,无法插进任何现有服务器机箱,需要专门设计的液冷、供电、机械支撑、网络互联,单台 23 kW 功耗是普通数据中心机柜的 5-10 倍。第三方服务器 OEM(Supermicro、Dell、HPE)那一整套围着 NVIDIA 建起来的标准化产业链,Cerebras 用不上。 所以 Cerebras 卖的是整机系统 CS-3,单台售价 200-300 万美元。 Cerebras 早期(2019-2023)尝试过一个路线:我卖整机,你自己部署。 卖给国家实验室、制药公司、UAE。客户拿回去自建机房,从签约到上线 6-12 个月,出货量始终上不来。客户嫌部署太重太难:23 kW 单机功耗、专门液冷、专门供电、专门机房布局,加上 CUDA 用不了、模型要重新编译,一颗非标芯片要把客户的整个 IT 基础设施改造一遍。 2023 年起 Cerebras 把商业模式改了:在自己的数据中心部署好,把推理算力按 token 卖出去。客户不用买硬件、不用改数据中心、不用学新工具链。模式跑通了,2025 年云服务收入 1.516 亿美元、同比 +93.58%。OpenAI 200 亿合同也是按这个模式签的——OpenAI 不买任何硬件,Cerebras 自己建数据中心、自己运营 750 MW 算力,以"算力即服务"卖给 OpenAI。 这套结构代价是 Cerebras 不只是芯片公司,它同时是整机集成商 + 数据中心运营商 + 推理云服务商。从台积电拿晶圆,到客户用上推理服务,中间四个环节全部要自己一家做。NVIDIA 把整机集成、数据中心部署、运营这些"重活"外包给了整个产业链,自己只做设计 + CUDA + 系统级 IP。 所以: NVIDIA 75% 毛利率、55% 净利率; Cerebras 39% 毛利率、经营层面持续亏损。 本质上就是这两条商业路径的差异在数字上的反映。 这件事也直接影响产能扩张速度。NVIDIA 背后是整个数据中心产业链在扩张——Supermicro 做整机、AWS/CoreWeave 建数据中心、Equinix 接入电力,每个环节都有专门的公司在干;Cerebras 则要自己把晶圆、整机、液冷、供电、数据中心和云服务串起来。前者是生态扩产,后者是公司级工程交付,速度天然不同。 这就是为什么 Cerebras 招股书里那 246 亿美元"已签合同、但还没确认收入"的金额,其中 85% 要到 2028 年之后才能真正变成营收。从先进制程产能、整机集成、液冷机房到电力接入,任何一个环节延误,都会影响交付节奏。这里的瓶颈不是订单意愿,而是工程排队。 Cerebras 方案 vs NVIDIA 方案对比
Cerebras 是"小批高速专车",NVIDIA 是"大巴公交全网"。两条路线在物理上长期并存,但 Cerebras 的供给侧物理天花板把它的产业份额锁在极小的量级。这反过来意味着 GPU + HBM + 光互联这条主流路径在未来 5 年内不会被它系统性替代,HBM 三家、光互联龙头、台积电先进封装产能,Cerebras 上市本身不构成结构性利空。 这是一道"两条路线长期并存"的命题,不是"谁吃掉谁"的命题。 5、技术劣势:晶圆物理天花板 晶圆级方案有三个绕不开的根本短板。 第一是容量限制。最新的 WSE-3 单片只有 44 GB 片上 SRAM,装不下 70B 以上的全精度模型。要跑 405B、671B 这种大模型,Cerebras 的方案是把多台 CS-3 串成集群,大约 45 台 CS-3 装下一个 1 万亿参数模型。但代价是单台速度优势在跨多台机器后会被通信开销吃掉一部分,在小模型上 15 倍优势,跑超大模型时被压到 3-5 倍。 这直接影响 OpenAI 在 Cerebras 上跑什么——前沿大模型完整版目前还是只能跑在 GPU 集群上,也就是说 Cerebras 并不是英伟达的全方面挑战者,只能挑战其中一部分。 第二是面积已经触顶。WSE-3 的 46225 mm² 基本填满了 300mm 晶圆的有效使用区域,已经接近 EUV 光刻设备的物理极限——未来代际改进只能靠制程节点微缩(5nm → 3nm → 2nm),无法再通过扩大芯片面积来增加算力。 对比 NVIDIA 是个长期劣势:NVIDIA 可以通过 chiplet(B200 已经是双 die 拼接)、HBM 堆叠(HBM3 → HBM4)、更密集的封装继续在物理层面"加东西"。Cerebras 只能等更先进的制程。从 WSE-3 到 WSE-4,预计晶体管密度提升 1.5-2 倍,但物理面积不变——这意味着代际改进幅度会显著低于 GPU 阵营每 18-24 个月一次的代际跃迁。 第三是在 Agent 推理中会吃亏。其软件栈只支持静态图,不支持动态形状。90 万个 PE 核心的物理放置和路由配置在编译时就要确定,运行时无法重新配置。这意味着有三类工作负载在 Cerebras 上是被排除的——变长序列处理、条件执行/数据依赖分支、动态批大小。 这三类正好是当前最热的"智能体推理工作流"(agentic inference)的核心特征。AI 智能体一次任务要执行多步推理、动态决定下一步调不调用工具、上下文长度随对话扩展,都需要动态图。Cerebras 在"高速度但路径固定"的工作负载(编程辅助生成、批量推理)上发挥最好,在"灵活智能体"工作负载上反而比 GPU 受限。 三、生意赚钱吗 1、OpenAI 一张 200 亿美元的合同 Cerebras 这次 IPO 的焦点就是 OpenAI 这张合同。 它把 Cerebras 从"高度依赖 G42 一家客户"的故事,重写成了"OpenAI 战略推理合作伙伴"的故事,8 个月内估值从 80 亿翻到约 488 亿(完全摊薄)。 合同正式签订是 2025 年 12 月 24 日(主合作协议 MRA),公开披露是 2026 年 1 月 14 日。签约到首次交付只隔 30 天——2026 年 1 月 23 日就开始向 OpenAI 交付算力,说明合作早在 2025 下半年就在并行准备。 合同结构分四层—— 第一层是基础合同。OpenAI 承诺采购 750 MW 推理算力,按 2026、2027、2028 三年分批交付,每个 tranche 服务期 3 或 4 年,可延长至最多 5 年。基础合同价值 100 亿美元以上。 第二层是扩展选项。OpenAI 有权在 2030 年底前再加 1.25 GW,使总规模达到 2 GW。扩展后合同总价值超过 200 亿美元。 第三层是 OpenAI 给 Cerebras 的 10 亿美元营运资本贷款。利率 6%,贷款期限不晚于 2032 年 12 月 31 日。但如果 Cerebras 按时交付算力,利息可以用算力交付来抵充——本质上是"OpenAI 借钱给 Cerebras 买台积电晶圆,然后用算力服务来还"。 第四层是认股权证。Cerebras 向 OpenAI 发行最多 3344.5 万股 Class N(无投票权)股票的认股权证,行权价 $0.00001/股(基本为零)。Vesting 分三批——
如果两个里程碑都达到,OpenAI 最终持有 Cerebras 约 10% 股权。这降低了 OpenAI 中途撤单的概率,但同时意味着——OpenAI 在 Cerebras 估值故事里既是客户、又是债主、又是潜在股东。 上面的做法,还需要一些会计上的考虑,这里用个比喻来帮助理解:你开店,给大客户白送了 10% 股权换长期采购合同。按 GAAP,未来这位大客户每给你打 100 块货款,账上不能记 100 块收入,要先扣掉一部分作为"白送股权的成本摊销",比如记 88 块。这扣掉的 12 块就是所谓 contra-revenue。但扣掉的钱是会计机制,不是经营恶化。OpenAI 真金白银付的钱没少,Cerebras 真实现金流没受影响。 但报表上的"收入增长率"会被这个机制人为压低。S-1/A 中管理层的明确预警——从 2026 年 Q1 起,warrant 形成的 contra-revenue 会开始进入财报,导致季度收入增长率比近期趋势下降。这是公司自己的官方信号,所以首份季报(约 2026.8 公布)大概率会出现"收入增速明显低于预期"的情形,市场如果没准备好,会有波动——届时正好是第一批解锁的日期附近。 在 IPO 路演中,还有一件事被传播:OpenAI 几位核心成员本身就是 Cerebras 的个人股东。2026 年 5 月 4 日 Brockman 出庭作证时承认,他自己是 Cerebras 个人股东;同时披露 Sam Altman 也独立投资了 Cerebras。Brockman 在 2017 年游说 OpenAI 收购 Cerebras 时持有 Cerebras 股权但未向当时还在 OpenAI 董事会的 Musk 披露。这段证词不会直接影响合同执行,但会让公开市场投资人在估值之外多一个治理变量要单独评估。 2、Codex-Spark——实战成绩单 2026 年 2 月 12 日,和 OpenAI 合作的第一个产品 GPT-5.3-Codex-Spark 上线,这是 OpenAI 第一个跑在非 NVIDIA 硬件上的生产模型。 主要参数: 在 WSE-3 上跑出 1000 tokens/秒以上——相比标准 GPT-5.3-Codex 跑在 GPU 集群上的 65-70 tokens/秒,快了 15 倍 仅向 ChatGPT Pro($200/月)订阅用户开放,API 价格未公布 模型是从标准 GPT-5.3-Codex 蒸馏出的小模型,能力有损失:SWE-Bench Pro 上 Spark 约 56% 对 Codex 5.3 约 56.8%(接近持平),但 Terminal-Bench 2.0 上差距明显,Spark 58.4% 对 Codex 5.3 77.3% 对 Cerebras 估值分几层: 第一层是速度真的兑现了。1000 tokens/秒在 GPU 推理服务上是做不出来的。这是 Cerebras 价值最大的背书之一。 第二层是物理层和实际层的鸿沟。内存带宽上 WSE-3 和 H100 数量级差 6,000 倍以上,但实测 token 生成速度只有 10-15 倍差距。中间几百倍差距被软件栈、batch 处理、工作负载这些系统级因素吃掉了。纸面参数翻译到实际推理速度时要打很大折扣。 GPU 阵营有一个反驳论点:认为这些速度对比都是单用户速度(per-user throughput)。GPU 在多用户场景下可以通过 batching 把若干用户请求合并、共享一次权重读取,单用户慢,但 batch 10-20 时单颗 H100 的总吞吐量可能就接近一台 CS-3。Cerebras 至今没公布 batch 128+ 高并发的总吞吐数据。 这意味着 Cerebras 适合"低并发 + 低延迟",不适合"高并发 + 高吞吐量"。后者 GPU 单位成本仍占优。 第三层是模型大小的硬约束。Spark 是蒸馏后的小模型,在更考验复杂任务推理的 Terminal-Bench 2.0 上损失明显。OpenAI 选择"专门为 Cerebras 蒸馏一个小模型",而不是把完整大模型拆到多台 Cerebras 机器上跑,说明后一条路径目前还撑不起前沿大模型。Cerebras 至少在当前一代硬件上,被锁定在"中小模型 + 高 ARPU 场景",前沿大模型完整版仍要 GPU。 第四层是成本悬念。Codex-Spark API 价格至今没公开,只通过 ChatGPT Pro $200/月订阅捆绑。如果 Cerebras 硬件真的便宜过 GPU,OpenAI 没理由不公开 API 定价——延迟披露这件事本身就在透露 cost-per-token 还没真正击穿 GPU 推理的成本曲线。Cerebras 在速度上是赢家,但在单位成本上是否便宜过 GPU,目前还没有公开数据可以验证。 总结:有亮点,但香不香,见仁见智了。 3、AWS:分销渠道,不是客户 2026 年 3 月 13 日,AWS 宣布与 Cerebras 多年合作,计划在 AWS 数据中心部署 CS-3,并通过 Amazon Bedrock 向客户提供高速推理。 合作的核心架构叫分离式推理(disaggregated inference): Prefill 阶段(吃掉用户上下文、生成第一个 token)用 AWS 自研 Trainium,计算密集型 Decode 阶段(逐个 token 往外吐)用 Cerebras CS-3,内存带宽密集型 两段之间用 AWS Elastic Fabric Adapter(EFA)高速网络互联 一个重要细节是:AWS 合作目前仍是 term sheet,不是定稿合同。S-1/A 明确披露——term sheet 中 pricing、exclusivity、minimum capacity 及 AWS 保护条款具有约束力,包含初始多年度租赁,但双方仍需谈判并签署最终协议。市场把它当成已落地的合同来定价,实际仍处于"高度可能但未完全锁定"状态。 AWS 也获得了最多 269.7 万股 Class N 的期权,行权价 $100/股(注意这里和 OpenAI 的近零行权价完全不同),vesting 与超出初始 lease 的购买量及其他触发条件相关。 好的一面:Cerebras 不再"全栈挑战 NVIDIA / Trainium",而是接受了"特定环节最优"的定位,降低了 AWS 与 Cerebras 的正面冲突,让 AWS 反而有动力推 Cerebras 进 Bedrock 渠道。 需要看清楚的另一面:这套架构把 Cerebras 的定位进一步具体化——它最强的地方是 decode 阶段的低延迟高速输出,而不是覆盖推理全流程的通用平台。Cerebras 在产业链中的位置正在从"AI 推理平台公司"被向下定位为"高速 decode 加速器",估值故事的边界被悄悄收紧。后者比前者的市场要小一个数量级。 而且要注意,AWS 不是 Cerebras 的客户,而是分销渠道。这一点在估值上和 OpenAI 的直接采购很不一样。 4、客户结构 Cerebras 的客户故事一直绕不开 G42,这家阿布扎比的 AI 公司从 2023 年起就是 Cerebras 最大的客户,2024 年第一季度占营收 87%。 2025 年开始,Cerebras 试图把客户故事讲得更分散:24 年 G42 占比 85%,其他 15%;25 年 G42 降到 24%,但 MBZUAI 又上升到 62%,其他 14%。在会计算法上,这是两个独立客户;但在商业意义上,其实还是一回事——G42 的集团 CEO Peng Xiao 同时是 MBZUAI 董事会成员,两家在 UAE 国家战略框架里都是 AI 战略执行实体,实际付钱方都是 UAE 国家资本。 更危险的数字是应收账款(AR)集中度——
应收账款是"已经出货但还没收到钱"的部分。AR 集中度比收入集中度更危险,任何一家客户延迟付款都直接冲击现金流。UAE 国家资本付款节奏不完全可控,主权 AI 项目预算执行受地缘政治、监管、政治周期影响。如果 MBZUAI 突然推迟付款 6 个月,对 Cerebras 现金流的影响接近一次小型流动性危机。 除 OpenAI 和 UAE 两家,Cerebras 招股书披露的其他客户包括 Meta(Llama API 合作)、IBM、Mistral、Cognition、AlphaSense、Notion、LiveKit、GSK、AstraZeneca、Mayo Clinic、美国能源部、美国国防部、TotalEnergies。清单广度够,但 2025 年实际营收里这些客户合计只占 14%。从 2026 年开始 OpenAI 会逐步起量,但 OpenAI 的全部收入要到 2028 年之后才能完整确认。 也就是说,2026-2027 这两年,Cerebras 的实际营收仍然会高度依赖 UAE 两家关联实体。 5、美国本土客户萎缩 34% 招股书中有一点应该注意,美国本土账单收入从 2024 年的 2.827 亿美元下降到 2025 年的 1.876 亿美元,下降 34%(见 S-1 geographic billings breakdown,PitchBook、Futurum 等多家媒体的招股书拆解均引用了同一数据)。同期总营收增长 76%。 Cerebras 2025 年的增长完全来自国际客户(主要是 UAE 加上 OpenAI 合同的预付款部分),美国本土客户基础不仅没扩展,反而在收缩。 一个"挑战 NVIDIA 的美国 AI 芯片公司"在自己本土市场的客户基础在萎缩,这和它
免责声明:
1.资讯内容不构成投资建议,投资者应独立决策并自行承担风险
2.本文版权归属原作所有,仅代表作者本人观点,不代币币情的观点或立场
首页
快讯