作者 | 凌敏
正值吴泳铭出任阿里巴巴 CEO 两年之际, 阿里在云栖大会上仅用几个小时就点燃了市场的热情,股价一度大涨超 7%,创下 2025 年 10 月以来新高。
在为阿里确立“AI 驱动”的核心战略、并完成一系列组织与业务聚焦后,这一次,技术出身的吴泳铭不再低调,一口气向行业丢下几个核弹级判断,并首次系统阐述 AI 的终极目标,超级人工智能 ASI。正如吴泳铭在去年云栖大会上的断言——AI 发展速度已经超过任何历史时期——一年后,我们就已从 AGI 变革的早期,站到了新的路口。
AGI 不再是遥不可及的 AI 梦,而是一件确定性事件。一个具备人类通用认知能力的智能系统,一个能将人类从 80% 的日常工作中解放出来,让人类更专注于创造与探索的智能系统,仍然不是 AI 的上限。AI 真正的上限,将迈向超越人类智能、能够自我迭代进化的超级人工智能 ASI。甚至人类还没有解决的科学和工程问题,比如医学难题、可持续能源、气候问题等,都能交给 ASI。这才是 AI 最令人振奋的想象空间,也是阿里等大型科技企业在这个时代下,需要定义的技术价值锚点。
在通向 ASI 的新阶段,阿里云也对其全栈 AI 体系进行了全面升级,从 AI 大模型到 AI 基础设施都做了一轮技术迭代。
C 位是“卷”到让行业内人士都直呼“丧心病狂”的模型层,通义一出手就是大模型 7 连发:『通义千问』家族中最大、最强的基础模型 Qwen3-Max,下一代基础模型架构 Qwen3-Next,全新升级的千问编程模型 Qwen3-Coder,宣布开源的视觉理解模型 Qwen3-VL,斩获 32 项开源 SOTA 的全模态模型 Qwen3-Omni,通义万相 Wan2.5-preview 系列模型,以及新成员语音大模型通义百聆。
在 AI 基础设施层,阿里云清晰地展示了面向 Agent 的全栈技术体系应该如何构建:一站式模型服务和 Agent 开发平台阿里云百炼在框架、模型、组件等层面均进行了更新,底层基础设施面对 Agent 也进行了针对性调整,比如新一代磐久 128 超节点 AI 『服务器』,分布式存储层面的表格存储 Tablestore 为 Agent 提供高性能记忆库和知识库等。这一系统化的技术布局,标志着阿里云正在走向以 Agent 为中心的全栈智能服务新范式。
吴泳铭上任两年,如果“AI 驱动”为阿里确立战略锚点,ASI 的提出则设定了终极技术目标,也让其长期演进路线图清晰地呈现在外界眼前。
ASI,才是 AI 的终极目标
正如前文所言,阿里对 AI 终局的判断不是大家在过去更常听到的 AGI,而是 ASI。从 G 到 S,从 General 到 Super,意味着 AI 在速度与智慧上将经历双重飞跃。
根据阿里巴巴集团董事兼首席执行官,阿里云智能集团董事长兼首席执行官吴泳铭的判断,通往 ASI 之路将经历三个阶段。第一阶段是“智能涌现”,AI 通过学习海量人类知识具备泛化智能。这也是过去几年里,整个行业的核心叙事。
从 2022 年 ChatGPT 首次向全人类展现 AI 通用能力,到一年后全球范围内的“千模大战”,基『于海』量数据训练的大模型越来越能理解人类的意图,解答人类的问题。也是从这时起,AI 摆脱了过去饱受诟病的“人工智障”之称,成为真正意义的人工智能。
当大模型具备了 Tool Use 能力,有能力连接所有『数字化』工具,完成真实世界任务,并且编程能力得到提升后,就进入了 第二个阶段,“自主行动”,AI 掌握工具使用和编程能力以“辅助人”。这也是行业当前所处的阶段。
在这一阶段,AI 不再局限于语言交流,而是具备了在真实世界中行动的能力。比如,可以在人类的目标设定下,拆解复杂任务,使用和制作工具,自主完成与数字世界和物理世界的交互。如果说第一阶段的 AI 还处于玩具级别,那第二阶段的 AI,就是真正意义上的生产力工具,能在各种应用场景中,为企业带来实实在在的价值。
进入自主行动阶段的 AI,典型的应用场景包括智能驾驶和智能座舱、千行百业融入核心生产与业务流程的 Agents、AI Coding,以及智能终端。
其中,Agent 作为 AI 最有想象力的应用,是当下从开发者到企业都在关注的焦点,包括在本次云栖大会上,阿里云还专门展示了如何构建面向 Agent 的全栈技术体系。
随着 AI 进入 Agentic 阶段,企业正从“调用模型”迈向“构建可执行任务的 AI Agent”。在金融、医疗、制造、零售等多个领域,Agent 已经深度融入到业务核心流程,并从“试点探索”全面迈向“规模化落地”阶段,帮助企业实现降本提效、流程重构与创新跃迁。比如,西门子通过“小西”的智能体实现问题解决时间缩短 50% 以上,工程决策和运维精准度显著提高;平安知鸟的 AIGC 智能体产品矩阵,能够助力 3000+ 企业降低培训成本,提升组织效能;微医打造的“4+1”AI 智能体体系,能显著提升基层医疗服务能力。
为这些投入实际应用的企业级 Agent 提供技术支撑的,是一站式模型服务和 Agent 开发平台阿里云百炼。
数据显示,在百炼平台,企业级 Agent 月均创建量近 8.4 万个,单月最高突破 9.8 万,创下历史新高。越来越多企业和个人开发者尝试在阿里云百炼上构建 Agent,整体注册用户规模实现跨越式增长,2025 年内的新增注册用户数,单月同比最高增速超 1000%。
“自主行动”阶段的 AI 典型应用场景还包括 AI Coding。进一步来说,大模型 Coding 能力的提升,才是 AI 得以处理更复杂任务的关键。背后原因在于,Agent 可以自主 Coding,理论上就能解决无限复杂的问题,像『工程师』团队一样理解复杂需求并自主完成编码、测试。
从早期的代码补全,到如今的智能编程,大模型 Coding 能力越来越强,也在不断改变开发者的生产力范式。在前年云栖大会上发布的通义灵码,仅用了两年时间,就覆盖了 90% 的中国上市商业银行,以及超过 70% 的中国车企。AI Coding 带来的人机协作新模式,也还将继续。
第三个阶段是“自我迭代”,AI 通过连接物理世界并实现自学习,最终实现“超越人”。这是阿里对于 AI 的未来构想。这个阶段有两个关键要素:其一,AI 连接了真实世界的全量原始数据;其二,Self-learning 自主学习。前者需要 AI 直接从物理世界获取更全面、更原始的数据,这样才能更好的理解和模拟世界,发现超越人类认知的深层规律,从而创造出比人更强大的智能能力。后者需要 AI 通过与真实世界的持续交互,获取新的数据并接收实时反馈,借助强化学习与持续学习机制,自主优化、修正偏差、实现自我迭代与智能升级。
ASI 带来的关于未来的美好畅想,是一个可以实现的诗和远方。随着 AI 行业发展的速度不断加快,行业对 AI 基础设施的需求也将提速。为了迎接 ASI 时代的到来,可能需要企业在战略和资源上持续倾斜。毕竟,这是一个“烧钱”不眨眼的赛道。根据 Gartner 最新发布的预测报告,全球在 AI 领域的支出预计将在 2025 年达到近 1.5 万亿美元💵,预计到 2026 年,全球 AI 总支出将进一步突破 2 万亿美元💵大关。
吴泳铭表示,为了迎接 ASI 时代的到来,阿里云正在积极推进三年 3800 亿的 AI 基础设施建设计划,并将会持续追加更大的投入。此外,阿里云的战略路径也将围绕这一目标进行深化:第一,『通义千问』坚定开源开放路线,致力于打造“AI 时代的 Android”;第二,构建作为“下一代计算机”的超级 AI 云,为全球提供智能算力网络。
阿里的 AI 叙事,是一场“豪赌”
事实上,吴泳铭上任的这两年,也正是阿里围绕 AI 全面调整战略、重兵投入的两年。
在 2023 年吴泳铭宣布出任阿里巴巴集团董事兼首席执行官,阿里云智能集团董事长兼首席执行官的两个月后,吴泳铭在某次财报分析师电话会上首次提出了“AI 驱动、公共云优先”的战略:一是 AI 驱动,打造一朵“AI 时代最开放的云”,为全行业提供稳定高效的 AI 基础设施,创建开放繁荣的 AI 生态;二是公共云优先,坚持对阿里云所有产品和业务模式作取舍, 减少项目制的销售订单,加大公共云核心产品投入,持续提升阿里云的收入质量。
外界看到最明显的一个信号是,阿里在自研大模型上的持续投入,并且坚定开源开放——刷榜的通义,很难不吸引外界关注。比如,2023 年 10 月发布的『通义千问』 2.0,在 10 个权威测评中,综合性能超过当时海外顶尖模型 GPT-3.5。在 2025 年开年 『DeepSeek』-R1 发布前,通义就曾带头开“卷”,进行包括支持 100 万 Tokens 上下文的 Qwen2.5-1M、视觉模型 Qwen2.5-VL、旗舰版模型 Qwen2.5-Max 在内的三连发。
在今年的云栖大会上,通义“卷”到了 7 连发。
其中,全新亮相的通义旗舰模型 Qwen3-Max 性能超过 GPT-5、Claude Opus 4 等,跻身全球前三,也是『通义千问』家族中最大、最强的基础模型。其预训练数据量达 36T tokens,总参数超过万亿,拥有极强的 Coding 编程能力和 Agent 工具调用能力。下一代基础模型架构 Qwen3-Next 及系列模型总参数 80B 仅激活 3B ,性能即可媲美千问 3 旗舰版 235B 模型,实现模型计算效率的重大突破。
在专项模型方面,千问编程模型 Qwen3-Coder 重磅升级。新的 Qwen3-Coder 与 Qwen Code、Claude Code 系统联合训练,应用效果显著提升,推理速度更快,代码安全性也显著提升。在多模态模型中,视觉理解模型 Qwen3-VL 重磅开源,在视觉感知和多模态推理方面实现重大突破,在 32 项核心能力测评中超过 Gemini-2.5-Pro 和 GPT-5。
读懂了阿里云对于大模型的判断——大模型是下一代的操作系统——也就读懂了通义为什么一直这么“卷”。
按照阿里关于 AI 未来的构思,几乎所有链接真实世界的工具接口都将与大模型进行链接,所有用户需求和行业应用将会通过大模型相关工具执行任务,大模型将会是承载用户、软件与 AI 计算资源交互调度的中间层,成为 AI 时代的操作系统。
开源吞噬软件,大模型吞噬一切。这也是『通义千问』选择开放路线的根因。开源模型创造的价值和能渗透的场景,会远远大于闭源模型。而选择开源,就是为了全力支持开发者生态,与全球所有开发者一起探索 AI 应用的无限可能。
数据显示,截至目前,阿里通义开源 300 余个模型,覆盖不同大小的“全尺寸”及 LLM、编程、图像、语音、视频等“全模态”,全球下载量突破 6 亿次,全球衍生模型 17 万个,稳居全球第一。超 100 万家客户接入通义大模型,权威调研机构沙利文 2025 上半年报告显示,在中国企业级大模型调用市场中,阿里通义占比第一。
阿里云对于 AI 时代的另一个判断是,超级 AI 云是下一代的计算机。
这一判断的基础是,过去几年,AI 算力增长是指数级的,『数据中心』内的计算范式也在发生革命性改变,从 CPU 为核心的传统计算,正在加速转变为以 GPU 为核心的 AI 计算。新的 AI 计算范式需要更稠密的算力、更高效的网络、更大的集群规模。这一切都需要充足的能源、全栈的技术、数百万计的 GPU 和 CPU,协同网络、『芯片』、存储、数据库高效运作,并且 24 小时处理全世界各地的需求。
这需要超大规模的基础设施和全栈的技术积累,只有超级 AI 云才能够承载这样的海量需求。
在今年的云栖大会上,阿里云 AI 基础设施也全面升级。从底层『芯片』、超节点『服务器』、高性能网络、分布式存储、智算集群到人工智能平台、模型训练推理服务,阿里云向外界秀了一次全栈 AI 技术能力肌肉。
在『服务器』层面,阿里云发布全新一代磐久 128 超节点 AI 『服务器』;在网络层面,阿里云新一代高性能网络 HPN 8.0 全新亮相;在存储层面,阿里云分布式存储面向 AI 需求全面升级;在 AI 智算集群层面,智能计算灵骏集群通过多级亲和性与拓扑感知调度设计,基于 HPN 网络支持 10 万卡稳定互联,多级可扩展的架构让每张卡间互联路径更短、带宽更优。
本次大会主论坛的一个彩蛋是,阿里云正在全力打造一台全新的 AI 超级计算机,它同时拥有最领先的 AI 基础设施和最领先的模型,两者可以在产品设计和运行架构上高度协同,从而确保在阿里云上调用和训练『通义千问』模型时,能达到最高效率。
如此宏大的 AI 叙事,三年 3800 亿的 AI 基础设施建设计划显然还只是个开始。根据远期规划,为了迎接 ASI 时代的到来,对比 2022 年这个 GenAI 的元年,2032 年阿里云全球『数据中心』的能耗规模将提升 10 倍。阿里云也将持续追加更大的投入。
在 AI 的宏大版图中,阿里的落子展现了一条清晰的演进路径,从工具应用到智能重构,每一步都让 AI 真正融入产业应用,指向最终到来的 ASI 星辰大海。或许,这才是科技发展为人类带来的意义。