<
分开来看。谷歌要从目前的80亿美金收入贡献,到2027年的250亿美金TPU采购,是能想象的。尤其是昨天Gemini 2.0 Flash和Agent产品的发布,结合谷歌全球最大流量和庞大应用生态,推理起飞后的需求一定是井喷。之前大家去check到TPU cowos数字一般,很大原因是训练卡和推理卡的比例迁移,推理算力的占比在快速提升。
Meta的MTIA,按照之前的预期,会在2025年贡献博通20-30亿美金的收入,意味着在2025-2028后面三年,增长10倍。考虑到MTIA支持的就是Meta推荐引擎,而这个替换GPU也才刚刚开始,ASIC的部署和潜在的对GPU的替换,按道理也有巨大空间。这里还没有考虑GenAI算力需求,因为Meta同时在囤非常多的H卡(年底60w+)、构建10万卡集群训练Llama4、抢购GB200 Ariel。这部分训练需求后面都可以转推理。再之后是否用ASIC去支持GenAI推理,不知道是否在Hock Tan的假设之中。
最有趣的发现就是字节…因为上述预期意味着字节的ASIC采购需求,要从0,爬到200-300亿美金。我们倒算下,单卡ASP的假设随机性很大,取决于届时的HBM含量,如果要在2026年-2027上市,PK的是rubin甚至rubin-Next,HBM搭载量奔着500GB以上的。意味着单卡BOM成本就要超过1万美金,单卡售价应该在2万美金附近。这样算下来一年出货量百万卡,与博通屡次声称的“百万卡集群”契合。显然字节也在一边买N,一边买国产,一边还在储备远期的ASIC…每个部分的采购金额看起来都非常巨大。
最后,AI网络收入,意味着会从今年的30亿美金,到2027年的150亿美金(与英伟达今年的网络收入相当)
总之,概括下这个大卫星:3家大客户,每家在2027-2028都会达到1年百万片ASIC的采购规模。且第四和第五大客户也开始快速爬升。
另一边,微软下一代项目给了Marvell,且承诺给的相当大。按照Marvell最近的管理层小会上的表态:微软的机会比想象中“显著”大,会成为公司最大的收入贡献。而微软在ASIC上的投入,可能也与最近在AI上的策略变化有关。Satya昨天在GB2上的访谈,直接讲明了在AI发展上与sam altman秉持不同观点。Sam跟微软要巨大训练资源,但Satya认为应用层才是重点模型层在“通用商品化”。可见微软的重心已经放在推理,而推理场景的多样性,会给ASIC更多机会。
看到这,几乎所有的巨头都在做ASIC,不同阶段而已。

得到什么结论呢?博通给我们描述了一副3年后的硬件蓝图。眼前显然是NV GPU的天下,3年后博通“认为”或“希望实现” ASIC与GPU至少平分天下,甚至替代。这背后代表了CSP的意志,他们从一开始就寻求英伟达之外的替代供应方案,但NV太牛逼了,比如2025年的GB200,还得抢…但一旦有契机和变化,成本可控、供应链可控的ASIC就会冒头。尤其是最近,Trainium 2其实之前就规划的,且性能指标也就平平,为什么AWS最近上调了需求,就是因为GB200缺量+模型向推理的迁徙太快,给了ASIC一点机会。因此CSP一定给了博通/Marvell非常大的远期承诺,能否做到真的是看AI发展变化、对手NV迭代速度。但这种“意志”会持续存在。
以上涉及报告已经上传星球,以及 ASIC 逻辑下的投资机会有哪些、博通这次的投行分析。关于微软的ASIC,后面慢慢更新出来…
$博通(AVGO)$ $英伟达(NVDA)$ $#豆包#
本话题在财经新闻有42条讨论,点击查看。
财经新闻是一个投资者的社交网络,聪明的投资者都在这里。
点击下载财经新闻手机客户端 bestfinancenews/xz]]>
#博通讲了一个ASIC的超大叙事