9月24日,2025杭州云栖大会十周年之际,阿里巴巴集团CEO吴泳铭与阿里云CTO周靖人联手抛出多项重磅技术成果:
发布 7 款覆盖语言、语音、视觉、多模态领域的大模型新品,
更完成从AI模型到基础设施的全栈体系升级,明确“全栈人工智能服务商”定位,
同时披露三年3800亿AI基建投入计划,剑指超级人工智能(ASI)时代。
大模型七连发
周靖人现场发布的7款大模型,几乎覆盖AI核心应用场景,多项指标刷新行业纪录。
其中,通义千问旗舰模型Qwen3-Max性能超越GPT5、Claude Opus4,跻身全球前三。
其预览版已登上Chatbot Arena排行榜第三,正式版还将进一步突破。
在衡量Coding解决真实问题能力的SWE-Bench Verified测试中,Qwen3-Max获69.6分进入全球第一梯队。
Agent工具调用能力测试Tau2-Bench得74.8分,超过Claude Opus4和DeepSeek-V3.1,更在 AIME 25、HMMT数学推理测试中首次实现国内满分,打破海外模型垄断。
下一代基础模型架构Qwen3-Next则直击行业效率痛点。
总参数80B仅需激活3B,性能就能媲美235B旗舰模型。
通过混合注意力机制、高稀疏度MoE结构等创新,其训练成本较密集模型Qwen3-32B降低超90%,长文本推理吞吐量提升10倍,为大模型规模化应用扫清成本障碍。
编程模型Qwen3-Coder也完成升级。
联合Qwen Code、Claude Code系统训练后,推理速度和代码安全性显著提升,此前开源后在OpenRouter平台调用量激增1474%,位列全球第二。
多模态领域同样亮点频出:
视觉理解模型Qwen3-VL重磅开源。
32项核心测评成绩超过Gemini 2.5-Pro和GPT5,不仅能 “看懂” 图片,还能像人一样操作手机、电脑,甚至 “看图生代码”。
输入一张设计图,就能自动生成Draw.io/HTML/CSS/JS代码。
同时升级3D检测能力,支持百万tokens上下文,视频理解时长扩展至2小时以上。
全模态模型Qwen3-Omni斩获32项开源 SOTA。
业内首次实现“听、说、写”混合训练不互掣肘(此前多模态训练常出现“音频能力升、文本能力降”的问题),未来可部署于车载、智能眼镜等设备。
语音大模型新成员“通义百聆”包含Fun-ASR(数千万小时真实语音训练,高行业适应性)和Fun-CosyVoice(上百种预制音色,覆盖客服、直播电商等场景),进一步完善语音交互生态。
视觉生成领域,通义万相 Wan2.5-preview 系列模型实现音画同步视频生成,支持10秒1080P/24帧高清输出,还能生成含中英文文字、图表的图像,支持“一句话P图”。
截至目前,通义万相累计生成3.9亿张图片、7000万条视频,成为内容创作核心工具。
Agent开发提速
为降低 AI 应用门槛,阿里云百炼平台完成全方位升级。
全新Agent开发框架ModelStudio-ADK突破传统预定义编排局限,支持开发具备自主决策、循环执行能力的 Agent。
1 小时即可搭建能生成深度报告的 Deep Research 项目。
依托通义开源的 AgentScope,还能开发硬件代理、复杂检索等场景应用。
并集成 MCP Server(工具连接)、Pay Server(与支付宝联合首发,业内首个企业级 Agent 支付通道)等 7 大企业级组件,满足商业化需求。
低代码Agent开发平台 ModelStudio-ADP已在金融、教育等领域落地。
网商银行用它开发的贷款审核应用,能精准识别26种凭证、400+细粒度物体(如店面门头、餐饮厨房),准确率超95%,任务处理时间从3小时压缩至5分钟。
数据显示,过去一年阿里云百炼模型日均调用量增长15倍,超20万开发者开发了80多万Agent,生态快速扩容。
此外,Agent基础设施“无影AgentBay”升级自进化引擎、安全围栏、内存状态管理等能力。
还推出全新个人计算产品“无影Agentic Computer”,凭借革命性 “记忆” 能力和云上无穷算力,重构人机交互体验。
基建撑全栈:三年投3800亿,算力一年增5倍
AI 能力落地离不开基础设施支撑。
过去一年,阿里云AI算力增长超5倍、存力增长4倍多,此次大会发布的全新基建进一步巩固优势:
磐久128超节点AI服务器单柜支持128个AI芯片,密度刷新业界纪录,集成自研CIPU 2.0芯片和高性能网卡,同等算力下推理性能提升50%;
新一代高性能网络HPN8.0存储带宽达800Gbps、GPU互联带宽6.4Tbps,支持10万卡GPU高效互联;
存储方面,高性能并行文件存储CPFS单客户端吞吐提升至40GB/s,对象存储OSS Vector Bucket向量存储成本较自建开源数据库骤降95%。
智能计算灵骏集群通过拓扑感知调度,实现 10 万卡稳定互联,故障分钟级恢复;
通用计算也同步升级,九代AMD实例g9ae性能提升 67%,适合高并发场景;
容器服务ACK新增灵骏节点池,推理冷启动提速 10 倍、故障恢复时间缩短 85%,适配 AI Agent 规模化运行。
吴泳铭表示,阿里云正打造“AI超级计算机”,让顶尖模型与基建高度协同,确保调用、训练效率最大化。
战略层面,阿里云明确三年投入3800亿用于云和AI基础设施,总额超过去十年总和;
远期规划显示,2032 年其全球数据中心能耗规模将较2022年(生成式AI元年)提升10倍,为ASI时代储备算力。
开源领跑,遥遥领先
通义大模型已成为全球第一开源模型。
开源300+全尺寸、全模态模型(覆盖 LLM、编程、图像等),全球下载量突破6亿次,衍生模型超17万个,苹果、英伟达、微软、字节跳动等企业均在使用。
行业渗透方面,通义大模型服务超100万客户,沙利文 2025 上半年报告显示,中国企业级大模型调用市场阿里云占比第一;
Omdia数据显示,中国AI云市场阿里云份额35.8%,超过2至4名总和,超53%已采用生成式AI的财富中国500强企业选择阿里云。
吴泳铭在演讲中强调:“AI将重构基础设施、软件与应用体系,阿里云以全栈能力迎接ASI时代,与合作伙伴一起让AI深入产业。” (转自AI普瑞斯)