来感受一下阿里带来的一连串暴击,和亿点点震撼吧!
我们一个一个来看看。
Qwen3-Max官方称这是 Qwen 迄今为止规模最大、能力最强的模型。Qwen3-Max-Instruct 的预览版在 LMArena 文本排行榜上位列第三,超越了 GPT-5-Chat。
正式发布版本进一步提升了其能力,尤其在代码生成与智能体表现方面表现卓越。在专注于解决现实编程挑战的基准测试 SWE-Bench Verified 上,Qwen3-Max-Instruct 取得了高达69.6分的优异成绩,稳居全球顶尖模型之列。此外,在评估智能体工具调用能力的严苛基准 Tau2-Bench 上,Qwen3-Max-Instruct 更是实现了突破性表现,以74.8分超越 Claude Opus 4与 『DeepSeek』-V3.1。
仍在训练中的 Qwen3-Max-Thinking 已展现出非凡潜力。在结合工具使用并增加测试时计算资源的情况下,该“思考”版本已在 AIME 25、HMMT 等高难度推理基准测试中取得 100% 的准确率。
Qwen3-VL迄今为止 Qwen 系列中最强大的视觉语言模型。Qwen3-VL-235B-A22B,同时包含 Instruct 与 Thinking 两个版本。
十个维度全面评估了模型的视觉能力,涵盖综合大学题目、数学与科学推理、逻辑谜题、通用视觉问答、主观体验与指令遵循、多语言文本识别与图表文档解析、二维与三维目标定位、多图理解、具身与空间感知、视频理解、智能体任务执行以及代码生成等方面。
Qwen3-VL-235B-A22B-Instruct 在非推理类模型中多数指标表现最优,显著超越了 Gemini 2.5 Pro 和 GPT-5 等闭源模型,同时刷新了开源多模态模型的最佳成绩。
Qwen3-VL-235B-A22B-Thinking 同样在多数指标上创下开源多模态模型的新高。
纯文本任务上,Qwen3-VL-235B-A22B 也与 Qwen3-235B-A22B-2507 纯文本模型不相上下。
多语言支持,32 种语言上的识别准确率超过 70%。
为什么这么强?模型架构也进行了更新。
Qwen3-Omni新一代原生全模态大模型,能够无缝处理文本、图像、音频和视频等多种输入形式,并通过实时流式响应同时生成文本与自然语音输出。
采用 Thinker-Talker 架构。卓越的语音对话与指令跟随能力,实时音频和音视频交互。
全方位性能评估中,22项达到SOTA水平,性能超越 Gemini-2.5-Pro、Seed-ASR、GPT-4o-Transcribe 等性能强大的闭源模型。
Qwen-Image-Edit-25098 月发布的 Qwen-Image-Edit 迭代升级版本。主要特性有:
多图编辑支持,提供“人物+人物”,“人物+商品”,“人物+场景” 等多种玩法。
单图一致性增强,包括人物,商品,文字一致性等。
原生支持ControlNet,包括深度图、边缘图、关键点图等。
Qwen3-LiveTranslate-Flash基于『大语言模型』的高精度、高响应、高鲁棒性的多语言实时音视频同传模型。依托Qwen3-Omni强大的基座能力、海量多模态数据、百万小时音视频数据,Qwen3-LiveTranslate-Flash 实现了覆盖18种语言的离线和实时两种音视频翻译能力。
公开测试集上中英及多语言语音翻译,Qwen3-LiveTranslate-Flash 的准确度显著优于当前主流大模型 Gemini-2.5-Flash、GPT-4o-Audio-Preview 和 Voxtral Small-24B 等。
不同领域和复杂声学环境下均展现出持续领先的翻译性能。
Qwen3GuardQwen 家族中首款专为安全防护设计的护栏模型。
多项主流安全评测基准上,Qwen3Guard 表现卓越,稳居行业领先水平,全面覆盖英语、中文及多语言场景下的提示与回复安全检测任务。
提供两大专业版本,Qwen3Guard-Gen(生成式版)与 Qwen3Guard-Stream(流式检测版)。
Qwen3Guard-Stream 实时流式检测,专为低延迟设计,可在模型逐词生成回复的过程中实时进行内容审核,确保安全性的同时不牺牲响应速度。
三级风险等级分类。除传统的“安全”与“不安全”标签外,还新增了 “争议性” 标签,以支持根据不同应用场景灵活调整安全策略。
Qwen3Guard 支持 119 种语言及方言。
Qwen3-TTS-Flash支持多音色、多语言和多方言的旗舰语音合成模型。
语音稳定性和音色相似度方面进行了全面评估,结果显示其在多项指标上都达到了SOTA性能。
在seed-tts-eval test set上,Qwen3-TTS-Flash在中英文的语音稳定性表现上均取得了SOTA成绩,超越了SeedTTS、MiniMax和GPT-4o-Audio-Preview。
在MiniMax TTS multilingual test set上,Qwen3-TTS-Flash在中文、英文、意大利语和法语的WER均达到了SOTA,显著低于MiniMax、ElevenLabs和GPT-4o-Audio-Preview。
在说话人相似度方面,Qwen3-TTS-Flash在英文、意大利语和法语均超过了上述模型,在多语言的语音稳定性和音色相似度上展现出了卓越的表现。
旅行规划师旅行规划助手。基于 Multi-Agent 架构,具备强大真实工具调用能力的旅行规划系统,能够高效应对复杂、多变的行程安排任务。
无论你计划的是多城市连线旅行,还是单城深度游,它都能为你提供精准、可落地的旅行方案。
为每一天生成精确到小时的行程表,涵盖交通、住宿、景点、用餐等所有关键环节;附带行程总预算估算,让你提前掌握花费范围;提供行程注意事项,包括天气提醒、景点规则、交通变化等关键信息;所有路线与信息均可溯源至真实数据源,确保出行计划安全可靠。
Qwen3-Coder上下文代码专家。本次升级通过 Agentic Coding 联合训练优化,TerminalBench 分数大幅上涨,在 OpenRouter 平台一度成为全球第二流行的 Coder 模型(仅次于 Claude Sonnet 4)。
支持 256K 上下文,可一次性理解并修复整个项目级代码库,推理速度更快、Token 消耗更少、安全性更高,被开发者誉为“可一键修复复杂项目的负责任 AI”。
Wan2.5-Preview音画同步创意引擎。首次原生支持音画同步,全面提升视频生成、图像生成、图像编辑三大核心能力。
生成视频自带人声(多人)、ASMR、音效、音乐,支持中文、英文、小语种及方言,画面与声音严丝合缝;10 秒长视频生成,最高支持1080P 24fps,动态表现力与结构稳定性大幅提升,叙事能力跃升;支持复杂连续变化指令、运镜控制、结构化提示词,精准还原用户意图;人物、商品等视觉元素一致性显著提升;支持上传自定义音频作为参考,搭配提示词或首帧图生成视频,实现“用我的声音讲你的故事”。
文生图:真实光影、细节质感表现力增强,擅长不同艺术风格与设计质感还原;支持中英文、小语种、艺术字、长文本、复杂构图精准渲染,海报/LOGO一次成型;可输出科学图表、流程图、数据图、架构图、文字内容表格等结构化图文;复杂指令精细化理解,具备逻辑推理能力,可精准还原现实IP形象与场景细节。
图像编辑:丰富编辑任务(换背景/改颜色/加元素/调风格),指令理解精准;单图/多图参考垫图,人脸、商品、风格等视觉元素ID强保持,编辑后“人还是那个人,包还是那个包”。
通义百聆企业级语音基座大模型。整合了领先的 Fun-ASR 语音识别大模型与 Fun-CosyVoice 语音合成大模型,为攻克复杂环境下的语音落地应用难题而生。
Fun-ASR 语音识别大模型专治语音识别中的“幻觉输出”“串语种”“热词失效”三大行业痛点。通过首创的 Context 增强架构(CTC+LLM+RAG),幻觉率从 78.5% 降至 10.7%,基本根治串语种问题。
支持热词动态注入与跨语种语音克隆,行业术语 100% 准确召回。Fun-CosyVoice 语音合成大模型采用创新性的语音解耦训练方法,大幅提升音频合成效果。
一张图总结:
阿里的AI生态帝国已经建成了。
参考资料:
https://qwen.ai/research
https://wan2.video/zh/wan2.5-preview
https://github.com/QwenLM/Qwen3-VL
https://github.com/QwenLM/Qwen3Guard
https://github.com/QwenLM/Qwen3-Coder
https://github.com/QwenLM/Qwen3-Omni
https://github.com/QwenLM/Qwen-Image
https://huggingface.co/spaces/Qwen/Qwen3-Livetranslate-Demo
https://huggingface.co/spaces/Qwen/Qwen3-TTS-Demo
https://modelscope.cn/models/Qwen/Qwen-Image-Edit-2509
END