多家投行和厂商最近的动作表明,表面上看起来稳得很的格局,实则在悄悄改变。大厂们在实操上动得很快,这不是嘴上说说,是真金白银地在下棋。

拿五月份的事来说,英伟达推出了叫NVLink Fusion的东西,目的不只是把自家互联技术圈住自家人,它还要和第三方ASIC、CPU拉通,好把联发科、Marvell这类玩家拽进自己的生态里。简单讲,就是用一个更大的朋友圈把自己的位置稳住。与此同时,谷歌、Meta、微软、亚马逊这些有背景的玩家,也把自研或定制芯片彻底推进量产。谷歌的第七代TPU,代号Ironwood,明确是往推理方向优化的,外界还知道OpenAI把它租去给ChatGPT用算力。Meta跟博通联合出的MTIA T-V1,从规格上看也被许多人当成是在冲击英伟达下一代的市场地位。
再看市场研究和投行的数字,画面更直观。野村证券估计,目前英伟达在AI服务器里的占比超过八成,而ASIC目前只占个位数到一成多。别光盯着这个比例慌,他们的预测里说,到2025年,谷歌加上AWS的ASIC出货量合计,可能冲到英伟达出货量的四成到六成。再往后,到了2026年,等Meta和微软大规模部署,ASIC出货量很可能直接反超英伟达。高盛的判断跟这个差不多,他们预计2025到2026年,ASIC服务器在全球服务器市场的占比能升到三成八到四成左右。折算成白话:定制化芯片的成本和能效优势,正慢慢变成真刀真枪的产能和出货量。
把视角拉近一点,ASIC的好处挺好理解——专门为推理或某些模型量身定做,能耗低、效率高。遇到需要海量推理的场景,这种性价比就是硬指标。GPU的通用性依旧很强,训练、渲染、各种通用计算都靠它,但在“固定任务+大规模部署”这一块,ASIC的吸引力越来越大。目前更像是两条轨道并行跑:GPU把通用活儿做到底,ASIC把特定活儿做高效,两边都有人抢客户。
说回国内,摩尔线程(MooreThread)在冲科创板的过程中也把自家情况讲得挺清楚。创始人张建中在11月21日的线上交流会上说,中国下游的AI应用正在爆发,带来的是对加速算力的爆炸性需求,但当前GPU依旧是主流。张建中直白地承认,在技术积累和产品性能上,和英伟达、AMD这些老牌厂商比,还有差距。他们不遮掩自己不是最领先的,但在努力追赶。
具体到产品上,摩尔线程的MTT S80显卡在单精度浮点(FP32)运算上,接近英伟达RTX 3060的水平。他们把许多块卡组成千卡级的GPU算力集群,宣称效率超过了同规模的国外同代产品。还有个技术点叫MUSA架构,说是能让同一套代码在不同GPU上跑,这种兼容性对客户来说很有吸引力。听起来像是在把通用GPU的便利性和必定程度上的兼容性做改良,这在实战中的确 能省不少事。这种做法也符合国内厂商常走的路子:先把能跑的解决方案做出来,拿到市场经验,再慢慢打磨性能。
再往外看,市场规模的底层逻辑更关键。弗若斯特沙利文给出的中国AI芯片市场预测挺醒目:从2024年的约1425.37亿元,到2029年可能放大到13367.92亿元,年复合增长率接近五四个百分点。按这口径算,GPU的市场份额还有上涨空间,会成为增长的主要驱动力。换句话说,不管是站GPU一边,还是站ASIC那队,整体的蛋糕在迅速变大,大家争的更多是占有率,而不是抢谁把蛋糕吃光。
这场竞争里有几个拐点值得盯着。过去几年,英伟达把训练和推理的通用能力做到极致,拿走了大量入口。然后数据中心的客户开始算电费、算成本,定制芯片的需求就显现出来。谷歌、亚马逊、Meta这种有实力的玩家,开始把自研或联手的ASIC做成可用的产品,选项从“不得不选英伟达”变成了“可以选别的方案”。目前每家既想保住核心优势,也都想通过合作和生态建设把客户圈住,避免被人轻易挖走。
说到打法,厂商各有侧重。谷歌把TPU当成云服务的核心算力,同时也承诺对外出租,支撑像OpenAI这样的客户;亚马逊把定制芯片整合进AWS服务里,目标是那些对成本敏感又需要大规模推理的客户;Meta更偏向把芯片内嵌到自家的模型和服务里,走内循环。英伟达的策略则是绑住生态——不仅卖芯片,还把互联、软件、合作伙伴网络一并卖,尽量提高客户的切换成本。
从供应链看,全球集成电路的技术和产能还是被头部国外厂商主导。这是摩尔线程和其他国内厂商不得不面对的现实。短期来看,国产芯片完全替代进口乍一看难度不小,但在某些细分市场实现突破并非没有戏。总体上,这场戏是长期和短期、通用和定制并行的局面。
把视野再拉宽一点,AI下游应用的井喷是这场博弈的根源。算力需求被不断推高,从超大规模训练到边缘推理、从云到私有数据中心,各种场景对芯片的要求不一样。多种芯片并存,反而能让不同场景找到合适的解决方案。对普通用户来说,选项多了是好事,厂商得拿真材实料去拼,这样竞争才有意义。