从尔必达陨落到美光崛起:AI时代存储芯片底层逻辑的重构

区块链小多2 小时前

2012年,全球顶级DRAM内存制造商尔必达正式宣告破产。作为曾经日本半导体产业的标杆企业,尔必达整合了NEC、日立、三菱三大巨头的核心技术,即便有日本政府注资兜底,依旧难挽颓势。公司背负4300亿日元巨额债务申请破产保护后,最终被美国美光科技以2000亿日元收购,经整合消化后彻底退出行业舞台。

回望行业发展历程,英特尔、德州仪器、摩托罗拉均曾布局DRAM赛道,后续又相继退出市场。日本整个半导体内存产业,从鼎盛走向崩塌仅用了不到二十年。随后韩国企业接棒崛起,三星、SK海力士依托政府补贴,辅以激进价格战横扫全球市场,挤压所有竞争对手生存空间。

而美光科技成为最终幸存者,也是目前美国本土唯一具备先进存储芯片大规模量产能力的企业。这家总部坐落于爱达荷州博伊西的厂商,长期蛰伏在英伟达、台积电产业光环之下,不涉足GPU设计,也不布局逻辑芯片制造。但随着AI算力需求迎来爆发式增长,一个尘封数十年的物理瓶颈愈发凸显:计算单元等待数据传输的耗时,已然超过计算本身耗时。这一行业痛点无软件优化路径可解,只能依靠硬件技术突破,而这正是美光深耕四十年的核心赛道。

AI计算核心桎梏:内存墙成行业共性难题

在冯・诺依曼架构体系下,GPU、TPU计算单元与主存储器在物理电路层面相互独立。计算单元内置小容量SRAM作为片上缓存,大模型权重及输入数据主要存储于片外DRAM,数据需通过中介层以电信号形式完成跨区域传输。

以700亿参数大语言模型为例,FP16精度下仅模型权重就需占用约140GB物理内存。当前主流高端AI计算卡显存容量集中在80GB至192GB,大尺寸模型只能拆分至多卡协同运行。过去十年,芯片算力实现指数级跃升,但内存带宽受物理引脚数量、信号频率、散热极限约束,增速远落后于算力迭代。当计算性能超出内存供给能力,计算单元陷入空转等待,硬件利用率大幅折损。

AI分为训练与推理两大核心场景,底层逻辑差异显著。训练阶段主打大批量并行处理,同一数据在计算核心缓存反复调用,算术强度偏高,核心瓶颈集中在计算速度而非内存,属于典型计算密集型场景,英伟达的算力优势在此充分释放。

推理阶段逻辑全然不同,大语言模型依靠自回归机制逐Token生成文本。为规避重复计算历史注意力分数,系统需在显存中搭建KV Cache缓存机制。以4096上下文长度为例,单用户请求便占用约1.34GB显存;两块A100扣除模型权重占用空间后,仅剩余20GB可用于KV Cache,最多仅能承载14个并发请求。推理阶段算术强度极低,性能完全受内存带宽制约,属于访存密集型任务,HBM物理传输速率直接决定业务吞吐量上限。

从能耗维度来看,从片外HBM读取每比特数据能耗约10—20 pJ/bit,而单次FP16浮点运算能耗仅0.1 pJ,数据搬运能耗是计算能耗的100至200倍。大规模推理场景中,若无法优化内存访问模式,数据中心大量电力将耗费在总线数据传输,而非实际逻辑运算,这也成为美光持续深耕HBM技术的核心驱动力。

美光科技基本面与AI供应链定位

美光是典型IDM整合元件制造商,实现芯片设计、晶圆制造、封装测试全链路自研自产,且晶圆厂聚焦存储芯片赛道,不涉足CPU、GPU,专注内存与闪存产品研发生产。

收入结构层面,DRAM业务贡献超七成营收,NAND闪存占比两至三成,NOR闪存业务体量相对偏小。其中DRAM为通用内存条核心载体,NAND是固态硬盘关键介质,NOR闪存多用于汽车电子、工业设备,承担启动代码快速执行功能,小众赛道却具备不可替代性。

业务布局上,美光划分四大板块:面向数据中心与服务器的计算网络业务、适配智能手机的移动终端业务、服务企业级存储的固态硬盘业务,以及布局汽车与工业领域的嵌入式业务。

在AI供应链体系中,英伟达负责GPU设计、台积电承接晶圆代工,美光虽不参与这两大环节,却是AI加速卡不可或缺的核心零部件供应商。单靠GPU逻辑芯片无法支撑大模型运行,推理场景的性能瓶颈锁定内存带宽,因此英伟达GPU需紧密集成HBM高带宽内存。美光与SK海力士、三星同为HBM核心供给商,产品经台积电CoWoS先进封装,与GPU整合为完整AI计算模块。GPU相当于AI算力大脑,HBM则是高速数据传输通道,二者缺一不可。

赛道竞争逻辑上,英伟达依靠架构与生态构筑护城河,美光则以制程工艺、堆叠封装技术持续迭代建立行业壁垒。HBM每一代带宽升级,均依托更精密的TSV硅通孔工艺与更高堆叠层数,技术准入门槛极高。

DRAM:AI算力背后的底层基础设施

在传统计算机架构中,DRAM作为主内存,完美适配硬盘大容量低速度、CPU高速度小缓存的速度差痛点。程序运行时,系统将数据从硬盘载入DRAM,CPU以纳秒级延迟、超高带宽完成数据读写,系统内核、后台进程均实时驻留其中。DRAM具备断电数据丢失特性,内部电容存在自然漏电,需持续刷新维持数据存储,基础单元由1个晶体管搭配1个电容构成。

迈入AI时代,DRAM应用形态与需求逻辑彻底重构。计算核心从CPU转向GPU,DRAM不再局限于主板DDR内存条形态,而是以HBM高带宽内存形式,借助TSV硅通孔技术垂直堆叠,与GPU共封于硅中介层。

当下DRAM核心价值聚焦两大维度:一是大模型权重装载,700亿参数模型FP16格式下需140GB存储空间,推理前必须全部载入HBM;二是KV Cache动态占用,大模型生成文本需缓存历史上下文,上下文长度越大,显存占用越高,单台高端服务器并发承载能力受限。训练场景显存消耗更为夸张,除模型参数外,还需留存多层中间计算结果,叠加优化器额外数据占用,显存需求可达推理场景的三至四倍。

受内存墙制约,GPU算力增速远超内存带宽迭代速度,推理阶段GPU频繁空转闲置,HBM带宽升级直接决定AI推理服务器吞吐量上限,这也是美光加码HBM研发的底层逻辑。

存储三强格局:三星、SK海力士、美光差异化竞技

全球DRAM市场由三星、SK海力士、美光三家寡头垄断,合计占据约95%市场份额,三家核心优势各有侧重。

制程迭代方面,美光领跑行业,从1-alpha、1-beta到1-gamma节点,始终率先实现新一代高密度DRAM量产,单片晶圆芯片产出更高,单比特制造成本更低,毛利率优势突出。三星14nm以下制程遭遇良率瓶颈,迭代节奏放缓;SK海力士制程进度与美光处于同一梯队。

HBM赛道格局则截然不同,SK海力士稳居行业龙头,占据超50%市场份额,是英伟达高阶GPU首发独家供应商,凭借MR-MUF封装工艺,在多层堆叠散热与良率控制上构筑绝对优势。美光作为后入局者,跳过HBM3直接攻坚HBM3E,依托能效优势切入英伟达供应链,采用TC-NCF封装工艺,制造难度偏高,产能与市场份额不及SK海力士。三星在HBM3、HBM3E阶段因发热与功耗问题未能通过英伟达测试,错失AI内存红利窗口期,目前押注HBM4寻求弯道超车。

能效表现成为美光差异化突破口,同等带宽下美光HBM功耗较竞品低20%至30%,单卡差异看似微小,规模化部署至数万卡数据中心后,可大幅降低电费与散热成本。同时旗下1-gamma制程LPDDR5X速率达9.6Gbps,功耗同步下降30%,完美适配移动端本地AI模型续航需求。

产能规模层面,三星凭借绝对体量稳居榜首,可依托价格战掌控市场;美光产能垫底,规避同质化价格竞争,聚焦技术溢价路线,依靠制程、能效领先锁定市场地位。

除DRAM与HBM外,NAND、NOR闪存构成美光第二增长曲线。NAND闪存市场美光稳居全球第四至五位,份额维持10%至15%;NOR闪存赛道放弃低端消费级市场,专注车规级、工业级高端领域,主导Octal xSPI高速接口标准,产品通过ASIL-D最高安全认证,依托自有晶圆厂提供十年以上长期供货,绑定汽车与工业核心客户,避开价格战红海,凭借可靠性与性能赚取行业溢价。

美光估值逻辑及同业对标

当前美光股价约600美元,市盈率21.44倍,市值约6500亿美元。华尔街投行12个月目标价区间400至675美元,均值接近500美元,整体估值处于低估区间。

过往存储芯片属于强周期行业,行业景气度带动产能扩张,进而引发产能过剩、价格暴跌,市场普遍仅给予8至10倍市盈率。如今美光估值大幅抬升,核心在于HBM重构收入结构:传统DDR内存受市场供需波动影响极大,而HBM采用锁单生产模式,投产前已与英伟达等头部客户签订长期不可撤销供货协议,2026年HBM产能已全部售罄,营收从周期波动转向合同化稳定收益,市场将其重新定义为AI基础设施供应商,估值倍数随之抬升。

同时叠加政策与资金加持,作为美国唯一先进存储制造企业,受益于《芯片法案》及供应链本土化趋势,机构资金持续配置,赋予流动性溢价。

同业对标来看,SK海力士市盈率仅12.17倍,虽手握过半HBM市场份额、绑定英伟达高端供应链,但受韩国财阀治理结构影响,股东分红与回购比例偏低;叠加近40%常规DRAM产能布局中国无锡产线,受海外设备出口禁令制约,产线无法迭代先进制程,面临产能迁移与资产贬值潜在风险,估值被持续压制。

三星电子市盈率达34.18倍,并非估值溢价,而是净利润分母塌陷所致。三星业务覆盖存储、晶圆代工、智能手机、显示面板等多元板块,代工业务追赶先进制程投入巨额资金却良率低迷,持续亏损拖累集团净利润,股价受本土资金托底保持稳定,进而推高市盈率数值。

机构看好美光的核心逻辑清晰:HBM营收占比提升拉动毛利率上行;长期供货协议锁定收入确定性;产能向HBM倾斜压缩普通DRAM供给,支撑全系产品涨价;1-gamma制程量产后进入资本开支回报期,自由现金流持续改善。需注意的是,存储行业周期并未完全消失,仅被HBM长单平滑,若AI基建投资放缓、三星HBM4实现技术反超,行业供需格局或将重新洗牌。

HBM核心评判标准与下一代互联技术CXL

行业各家厂商均主打自家HBM产品优势,评判HBM品质核心看三大关键参数:

一是引脚速率,决定数据传输带宽。HBM依靠千级微凸块与GPU互联,引脚速率代表单通道每秒数据传输量,行业标准总线宽度固定1024引脚,总带宽遵循固定换算公式。美光HBM3E标称9.2Gbps,单堆栈带宽约1.2TB/s,优于竞品8.0至8.5Gbps的主流水平。但速率提升伴随功耗与信号失真风险,电压频繁翻转产生热量,速率过高易导致信号错乱,影响数据传输稳定性。

二是能效指标,以pJ/bit为单位,数值越低能耗控制越优异。HBM与GPU共封装运行,功耗过高将加剧散热压力,迫使GPU降频减算力。美光依托1-beta工艺低电压设计,能效较竞品高出约30%,大幅降低数据中心电费与散热成本。

三是热阻与封装工艺,也是SK海力士核心护城河。温升由功耗与热阻共同决定,HBM多层堆叠结构热量传导难度大,层间填充材料直接影响热阻高低。行业主流分为TC-NCF与MR-MUF两大工艺,美光、三星采用TC-NCF工艺,压合易残留气泡、热阻偏高;SK海力士MR-MUF工艺以液态填料填满缝隙,无气泡残留、热阻更低。

热阻偏高将引发连锁反应,环境温度升高会加速DRAM电容漏电,迫使内存控制器频繁刷新数据,挤占有效带宽;同时封装工艺决定堆叠层数上限,层数越多,机械应力与热膨胀适配难度越大,良率管控压力指数级上升。

研读厂商HBM技术资料,只需聚焦三点:标称速率的测试电压、堆叠层数与单颗容量、终端核心供货客户,客户实测验收是技术实力的最终验证。

CXL:AI集群内存池化的下一个战场

HBM解决单GPU内部带宽瓶颈,当AI集群扩展至数千张GPU,内存资源分配低效、跨设备缓存不一致成为新痛点,CXL技术应运而生。

传统数据中心内存物理绑定单台服务器,无法跨设备共享,常出现部分节点KV Cache爆满、部分节点内存闲置的内存搁浅问题,行业搁浅率高达20%至30%,造成严重资本浪费。同时CPU与GPU缓存数据不同步,传统软件同步方式延迟高、性能损耗大,还需人工代码适配,容错率低。

上述痛点根源在于PCIe协议局限,仅适配大块数据搬运,无缓存一致性机制。CXL协议基于PCIe物理层重构逻辑,针对性优化内存语义与缓存一致性,依靠硬件自动维护缓存状态标记,纳秒级完成数据同步,无需系统与代码干预;采用固定FLIT传输格式,简化数据解析流程,远端内存访问延迟大幅降至170至250纳秒。

同时CXL可通过交换机搭建共享内存池,脱离单服务器物理绑定,微秒级动态调配闲置内存资源,彻底解决内存搁浅难题。

美光推出CXL Type 3内存扩展模块,基于自研DDR5工艺打造,与HBM形成高低搭配:HBM聚焦单卡超高带宽、低延迟场景;CXL主打跨节点大容量内存扩展,支撑TB级资源池化。行业落地中,热数据留存本地HBM,长上下文冷数据卸载至CXL内存池,通过预取机制掩盖传输延迟,助力百万Token超长上下文模型落地。

赛道格局上,HBM市场竞争趋于白热化,CXL内存扩展仍处于发展早期,行业格局未定。美光作为纯存储厂商无历史包袱,且CXL模块沿用标准DDR5工艺,无需复杂堆叠封装,良率与产能压力可控,有望抢占赛道先发优势。

行业底层经济学与前沿技术瓶颈

先进DRAM晶圆厂造价高达150至200亿美元,单台EUV光刻机成本超2亿美元,叠加配套供电冷却系统投入,设备5年折旧周期下,每日摊销成本数额巨大,设备利用率需维持95%以上才能摊薄制造成本。需求下行时厂商难以减产,只能硬撑承压、发起价格战,这也是存储行业强周期性的底层根源。

HBM造价居高不下同样源于物理约束,多层DRAM裸片垂直堆叠,任意一层缺陷即整颗模块报废,良率随堆叠层数增加呈指数级下滑。即便单片裸片良率达95%、层间键合良率99%,8层HBM3E总良率仅约61%,12层HBM4良率不足50%。SK海力士液态封装、美光制程良率爬坡,本质都是为提升整体良率、降低单位成本,而良率爬坡与产能扩张无法速成,决定HBM价格短期难大幅回落。

存内计算PIM技术提出二十年仍未规模化商用,核心卡在物理工艺矛盾。DRAM晶体管需低漏电、高阈值电压保障电荷存储,开关速度偏慢;CPU、GPU逻辑芯片追求低阈值电压、高开关频率,漏电流偏高,两者工艺需求天然冲突。若强行在DRAM植入运算单元,算力大幅落后GPU,且运算发热加速电容漏电,影响数据可靠性。

行业目前折中路径,是在HBM底部Base Die集成轻量化AI算力,借用台积电先进逻辑工艺制造,规避DRAM工艺约束,但距离真正存算一体仍有较大差距。

长远来看,美光核心竞争逻辑明确:依托1-gamma制程压低单比特成本,凭借HBM高利润锁定定价权,以长期供货长单平滑行业周期。但行业仍面临结构性瓶颈,DRAM平面微缩逼近物理极限,3D堆叠良率损耗随层数递增,存算一体短期无商用突破路径。未来行业竞争不再依赖单一技术节点领先,而是良率工程、封装工艺、系统集成的综合能力比拼,这也是存储巨头数十年技术沉淀构筑的深层护城河。

行业推演不难发现,芯片产业迭代始终陷入循环:算力不足便扩大芯片面积,面积扩容制约良率;转向互联架构又面临数据搬运延迟;芯片堆叠破解互联难题,却衍生散热痛点,散热恶化再度拖累良率。归根结底,芯片产业的终极竞争终将回归材料学,而光子互联、二维半导体材料、颠覆式计算架构,或将成为突破现有物理桎梏的核心方向。

免责声明:

1.资讯内容不构成投资建议,投资者应独立决策并自行承担风险

2.本文版权归属原作所有,仅代表作者本人观点,不代币币情的观点或立场