芝能智芯出品
2025年阿里巴巴在人工智能芯片领域动作频频。从自主研发的平头哥并行处理单元(PPU)正式落地,到以RISC-V为核心的长期架构规划,再到与中国联通的深度合作和与英伟达在物理AI层面的意外携手,阿里正在以“两条线”的方式推进其在AI产业链的布局。
通过孵化与自研建立国产算力的根基,试图摆脱对海外供应链的依赖;依靠加大资本开支提升云计算和AI服务的整体竞争力,阿里在未来十年内构建算力自给体系的主动谋划。
Part 1
孵化与自研:
从含光800到PPU
阿里在芯片领域的探索并非始于今日。2018年,因中兴事件暴露了国内在芯片上的脆弱性,阿里成立了平头哥半导体,作为其芯片研发的核心平台。2019年,首款推理芯片含光800问世,主要应用于阿里内部数据中心。那一阶段的芯片开发更多是为了验证能力和满足自身需求,并未承担外部市场化任务。
真正的转折点出现在2025年。阿里发布了全新的平头哥PPU,这是一款面向大规模AI推理的专用加速器。其设计逻辑并非简单追赶,而是直指英伟达在中国市场的留白区域。
在美国出口管制的限制下,H100、A100等先进芯片无法进入中国,H20成为可供选择的最高端产品。
阿里PPU在规格上对标H20,例如配备96GB HBM2e显存,互连带宽达到700GB/s,功耗控制在400W,性能已达到中国市场的最高合规水平。与A800相比,PPU在内存和互连方面更具优势。
PPU的生产完全由国内完成,据业内消息,芯片采用中芯国际的7nm工艺,整个制造链条高度本地化,在供应可控性上,阿里实现了从设计到制造的闭环,这种能力是战略性的突破。
在成本维度上,阿里也展现了工程化的思路。PPU的物料清单成本比H20低约40%,从而使阿里云能够将AI推理服务的价格降低一半。通过硬件到服务的联动,阿里不仅控制了算力成本,还迅速形成了市场价格优势。这是自研芯片与云业务一体化的直接收益。
阿里并未在软件生态上贸然切割,而是采取兼容策略。PPU支持CUDA相关框架,使得客户迁移成本最低。这种务实的兼容路线,既降低了推广阻力,也体现出自研芯片要真正融入市场的现实考量。
阿里还在更长远的时间尺度上押注RISC-V。其服务器级玄铁C930处理器核心,定位于高性能计算,试图逐步摆脱对X86和ARM的依赖。
阿里预测,RISC-V将在未来五到八年内成为主流云架构。C930的出货标志着阿里从AI加速器到通用CPU的完整路线初步成型。与PPU的“战术填补”不同,RISC-V路线更像是基础架构上的战略深耕。从孵化与自研这条线来看,阿里正在建立一种“短期解困、长期独立”的双层技术体系。
PPU满足眼前推理算力的市场需求,RISC-V则为未来基础计算打下独立底座。这一纵深布局,为阿里在AI产业链中争取了更大的主动权。
孵化与自研路线的核心,是通过PPU应对即时算力短缺,同时借助RISC-V探索长期架构独立,性能可比和成本优势,可以构建可控的国产供应链。
Part 2
3800亿猛砸钱,
投资与市场化
如果说孵化与自研是阿里的技术纵深,那么投资与市场化则是其在商业落地上的横向展开。
2025年阿里云栖大会上,集团CEO吴泳铭宣布未来三年将投入3800亿人民币,用于AI基础设施建设,资本开支计划意味着阿里云的全球数据中心规模将在2032年前能耗提升10倍。
换句话说,阿里正在为即将到来的“超级人工智能”时代预留算力空间。这不仅是对内部业务需求的提前布局,也是对全球算力市场竞争的正面回应。
市场化的另一大动作是阿里与中国联通的合作。
在西宁耗资3.9亿美元的数据中心项目中,阿里PPU成为主力AI芯片,占比高达72%,总计部署16,384颗。
以20,000 PFLOPS的总算力计算,阿里芯片首次大规模商业化落地,一方面验证了PPU的市场接受度,代表国家级客户对国产芯片的认可。
阿里并未完全割裂与英伟达的关系。
在此次大会上,阿里宣布与英伟达在“物理AI”方向展开合作,涵盖数据合成、环境仿真、强化学习及测试验证。这种合作并不涉及被限制的核心芯片,而是围绕具身智能和应用层的技术互补。
从商业逻辑来看,这既能保持与全球领先生态的联系,又能在政策边界内寻找合作空间。
从整体趋势看,阿里正在同时占据AI芯片、云计算和大模型三大核心环节。如果这三者形成良性循环 ,通过大规模资本支出和数据中心建设扩展算力供给,同时依靠与中国联通和英伟达的合作推动生态落地。
小结
阿里巴巴展现了双线并行战略:一条是技术孵化与自主研发,另一条是资本投入与市场化扩张。前者解决供应链自主和技术独立,后者推动客户落地和资本运作。两者相辅相成,构成了阿里在AI芯片与算力市场中的完整逻辑。