微软升级自研AI芯片减少对英伟达依赖,号称吊打亚马逊Trainium、超越谷歌TPU
创始人
2026-01-27 12:02:17
0

微软于美东时间26日周一发布第二代自研人工智能(AI)芯片Maia 200,这是微软减少对英伟达芯片依赖、更高效驱动自身服务的核心举措。这款采用台积电3纳米工艺制造的芯片已开始部署至爱荷华州的数据中心,随后将进驻凤凰城地区,标志着微软在自研芯片领域的重大进展。

微软云与AI业务负责人Scott Guthrie在博客文章中表示,Maia 200是“微软有史以来部署的最高效推理系统”,每美元性能比微软当前最新一代硬件提升30%。这些芯片将首先供应给微软的超级智能团队用于生成数据以改进下一代AI模型,同时为面向企业的Copilot助手及包括OpenAI最新模型在内的AI服务提供算力支持。

据Scott Guthrie披露,Maia 200在某些性能指标上超越了谷歌和亚马逊的同类芯片。该芯片在FP4精度下的性能是第三代亚马逊Trainium芯片的三倍,FP8性能则超过谷歌第七代TPU。微软已向开发者、学术界和前沿AI实验室开放Maia 200软件开发工具包的预览版,并计划“未来向更多客户开放”该芯片的云服务租用。

这一发布凸显了科技巨头争夺AI算力自主权的激烈竞争。在英伟达芯片供应紧张且成本高昂的背景下,微软、亚马逊和谷歌均加快自研芯片进程,力求为云客户提供成本更低、集成更顺畅的替代方案。微软已表示正在设计Maia 300后续产品。

发布Maia 200后,美股早盘尾声时,盘初转涨的微软股价涨幅扩大到1%以上,临近午盘时曾涨逾1.6%,收涨逾0.9%,连续三个交易日收涨,刷新将近两周来收盘高位。

性能参数:超1400亿晶体管的推理算力

据Scott Guthrie在微软官方博客中介绍,Maia 200采用台积电尖端3纳米工艺制造,每颗芯片包含超过1400亿个晶体管。该芯片专为大规模AI工作负载定制,在4位精度(FP4)下可提供超过10 petaFLOPS的算力,在8位精度(FP8)下提供超过5 petaFLOPS的性能,所有这些性能都在750瓦的芯片功耗范围内实现。

Guthrie在博客中强调,“实际应用中,一个Maia 200节点可以轻松运行当今最大的模型,并为未来更大的模型留有充足空间。” 该芯片配备216GB HBM3e内存,带宽达7 TB/s,以及272MB片上SRAM,专门设计的DMA引擎和数据传输架构确保大规模模型能够快速高效地运行。

在系统层面,Maia 200采用基于标准以太网的双层扩展网络设计。每个加速器提供2.8 TB/s的双向专用扩展带宽,可在最多6144个加速器的集群中实现可预测的高性能集体操作。每个托盘内四颗Maia加速器通过直连、非交换链路完全互联,在机架内和机架间使用统一的Maia AI传输协议,实现跨节点、跨机架的无缝扩展。

云业务关键支撑:从Copilot到OpenAI模型

Maia 200芯片已成为微软异构AI基础设施的重要组成部分,将为多个模型提供服务。Scott Guthrie的博客称,新一代AI加速器使微软云Azure在更快、更经济高效地运行AI模型方面占据优势。

Guthrie披露,该芯片将支持OpenAI的最新GPT-5.2模型,为Microsoft Foundry和Microsoft 365 Copilot带来性能价格比优势。

微软超级智能团队将使用Maia 200进行合成数据生成和强化学习,以改进下一代内部模型。Guthrie在博客中指出,“对于合成数据管道用例,Maia 200的独特设计有助于加快生成和过滤高质量、特定领域数据的速度,为下游训练提供更新鲜、更有针对性的信号。”

面向商业生产力软件套件的Microsoft 365 Copilot附加服务以及用于在AI模型基础上构建应用的Microsoft Foundry服务都将采用这款芯片。随着Anthropic和OpenAI等生成式AI模型开发商以及在热门模型基础上构建AI代理和其他产品的公司需求激增,云服务提供商正努力提升计算能力,同时控制能耗。

Maia 200目前已部署在微软位于爱荷华州得梅因附近的美国中部数据中心区域,随后将进驻亚利桑那州凤凰城附近的美国西部3区,未来还将部署到更多区域。微软已邀请开发者、学术界和AI实验室于周一开始使用Maia软件开发工具包,尽管尚不清楚Azure云服务用户何时能够使用运行该芯片的服务器。

减少英伟达依赖:科技巨头的芯片竞赛

微软的芯片计划启动时间晚于亚马逊和谷歌,但三家公司有着相似的目标:打造成本效益高、可无缝接入数据中心的机器,为云客户提供节省成本和其他效率优势。英伟达最新业界领先芯片的高昂成本和供应短缺,推动了寻找替代算力来源的竞争。

谷歌拥有张量处理单元TPU,这些单元不作为芯片出售,而是通过其云服务提供计算能力。亚马逊则推出了自己的AI加速器芯片Trainium,其最新版本Trainium3于去年12月发布。在每种情况下,这些自研芯片都可以分担原本分配给英伟达GPU的部分计算任务,从而降低整体硬件成本。

据Scott Guthrie在博客中披露的数据,Maia 200在性能上明显超越竞争对手:FP4性能是第三代亚马逊Trainium芯片的三倍,FP8性能超过谷歌第七代TPU。每颗Maia 200芯片配备的高带宽内存超过AWS第三代Trainium AI芯片或谷歌第七代张量处理单元(TPU)。该芯片每美元性能比微软当前部署的最新一代硬件提升30%。

微软云与AI执行副总裁Guthrie称Maia 200为“所有超大规模云服务商中性能最强的自研芯片”。值得注意的是,该芯片使用以太网电缆连接,而非InfiniBand标准——后者是英伟达在2020年收购Mellanox后销售的交换机所采用的标准。

快速迭代:Maia 300已在设计中

微软表示已在设计Maia 200的后续产品Maia 300。据Scott Guthrie在博客中透露,微软的Maia AI加速器项目被设计为多代迭代计划,“随着我们在全球基础设施中部署Maia 200,我们已经在为未来几代产品进行设计,预计每一代都将不断为最重要的AI工作负载树立新标杆,提供更好的性能和效率。”

Maia 200距离上一代产品Maia 100发布已有两年。2023年11月,微软发布Maia 100时从未向云客户提供租用服务。Guthrie在周一的博客文章中表示,对于新芯片,“未来将有更广泛的客户可用性”。

微软芯片开发项目的核心原则是在最终芯片可用之前尽可能验证端到端系统。一个精密的预硅环境从最早期阶段就指导了Maia 200架构,以高保真度模拟大语言模型的计算和通信模式。这种早期协同开发环境使微软能够在首批芯片生产之前,将芯片、网络和系统软件作为统一整体进行优化。得益于这些投入,Maia 200芯片在首批封装零件到达后数天内就运行了AI模型,从首批芯片到首次数据中心机架部署的时间缩短至同类AI基础设施项目的不到一半。

如果内部努力遇挫,微软还有其他选择:作为与密切合作伙伴OpenAI交易的一部分,该公司可以获得ChatGPT制造商的新兴芯片设计。

相关内容

热门资讯

如何让孩子“好好说话” 在一堂初中语文练习课上,江苏苏州市某中学的孙老师在讲解一道难题时,有学生大喊:“家人们,我裂开了。”...
原创 国... 国际空间站迎来25年轮换任务之下,首次最少人时刻,跟中国空间站的在轨任务人员一样了,这是怎么回事? ...
阿里发布千问最强模型,多项测试... (文/陈济深 编辑/张广凯) 1月26日晚,阿里正式发布千问旗舰推理模型Qwen3-Max-Thi...
宽屏显示效果 苹果iPhone... iPhone Fold是苹果打造的首款大折叠手机,该机预计将于今年9月推出。从目前曝光的信息来看,该...
原创 美... 据美国防官员透露,当地时间1月26日,美国海军“林肯”号航母打击群已抵达中东周边海域,可在接到命令后...
警惕境外机构以“科研合作”之名... 来源:北京日报客户端 警惕这类数据跨国泄露 跨国生物合作能有效整合全球资源、共享技术成果,推动破解科...
瞄深空!南极“天眼”看见了啥? 瞄深空!南极“天眼”看见了啥? 南极中山站仙女峰,庞大的天文圆顶缓缓滑开,数台光学望远镜在中国第4...
国家标准!手术机器人收费→ 医保动向 手术机器人收费 有了“国家标准” 关注 手术机器人收费有了统一“标尺”! 国家医保局1月2...
贵州10岁抗癌“小王子”豪豪去... 1月27日凌晨,牵动无数网友的10岁白血病男孩豪豪离世,其父亲告诉记者“孩子解脱了”。前一天的视频中...
珠海冠宇获得实用新型专利授权:... 证券之星消息,根据天眼查APP数据显示珠海冠宇(688772)新获得一项实用新型专利授权,专利名为“...