碾压谷歌Gemma 4!阿里最强开源小模型来了

2026-04-17

关注CAIE,国内头部AI人才认证、培训体系,助你在职场升职加薪。
CAIE注册人工智能工程师
CAIE注册人工智能工程师
公众号作者
CAIE,全称 Certifed Artifcial Intelligence Engineer(人工智能工程师),简称 CAIE(赛一) ,是人工智能领域的技能等级认证。旨在评估和培养具备人工智能理论基础与实战能力的职业人士。

继之前Qwen3.6-Plus发布之后,阿里通义千问团队又放大招,刚把Qwen3.6-35B-A3B全量开源了,直接把开源小模型的天花板抬到了新高度。

谷歌最新开源的Gemma 4-31B在它面前,几乎全面被碾压。

开源地址:https://modelscope.cn/models/Qwen/Qwen3.6-35B-A3B

https://huggingface.co/Qwen/Qwen3.6-35B-A3B

Qwen3.6-35B-A3B是典型的混合专家模型,总参数看着有350亿,但实际运行的时候只需要激活30亿参数,相当于用轻量级的算力消耗,跑出了大模型级别的性能。

这一点真的太关键了,不管是个人开发者本地部署,还是企业做落地应用,算力成本都能省一大笔。同时支持多模态思考和非思考两种模式。

全面碾压谷歌Gemma 4

我特意把两款模型的核心测试数据做了对比,从编程到通用推理,再到多模态。

Qwen3.6-35B-A3B猛超谷歌刚发布的Gemma 4-31B,各项核心任务的领先幅度都不小,是实打实的碾压。

先看最核心的智能体编程能力,这也是开发者最关心的点,几款主流的测试基准里,Qwen3.6-35B-A3B的表现都甩开Gemma 4-31B一大截。

SWE-benchVerified测试里直接拿到73.4的分数,比Gemma 4-31B52.0高出21.4,这几乎是断层领先了。

就算是多语言编程测试,也比谷歌的模型高出15.5,专业的工程化测试SWE-benchPro里,领先幅度也有13.8

还有终端操作、通用代码评估这些测试,每一项都比Gemma 4-31B强,平均下来领先幅度都在20左右。

简单来说就是用这款模型做AI编程助手,写代码、查bug、做工程开发,效率会比用Gemma 4-31B高太多。

再看通用智能体能力,也就是模型的工具调用、复杂任务规划、多模态交互这些能力,两款模型的差距同样很明显。

虽然在TAU3-Bench测试里分数差不多,几乎持平,但在深度规划测试里,Qwen3.6-35B-A3B的表现就更优了,尤其是MCPMark这个核心测试,直接拿到37.0的分数,而Gemma 4-31B只有18.1,相当于直接翻倍。

多模态交互的核心测试里,也比谷歌的模型高出5个多点,能看出来这款模型在处理复杂任务、对接各类工具的时候,灵活性和准确性都要更强。

知识储备和通用推理方面,两款模型的基础知识储备差不多,在MMLU-Pro这类通用知识测试里分数完全持平,MMLU-Redux里也只是微差,几乎可以忽略不计。

但重点在中文理解和STEM推理上,Qwen3.6-35B-A3B的优势就体现出来了。

C-Eval作为中文理解的核心测试,直接拿到90.0的高分,而Gemma 4-31B只有82.6,高出7STEM推理测试里也领先1.7。

这对于国内开发者来说,中文理解能力强这一点,用起来的体验会好太多,不用再纠结模型对中文指令的理解偏差。

最后是多模态能力,这也是Qwen3.6-35B-A3B的强项,视觉、文档、视频理解全方面领先,部分任务的领先幅度还超过了10

视觉问答的真实场景测试里,拿到85.3的分数,比Gemma 4-31B高出13,文档理解的核心测试里,更是从80.1直接干到89.9,接近90的高分,视频理解测试里也保持着领先。

更关键的是,谷歌Gemma 4-31B在空间智能相关的测试里几乎是空白,而Qwen3.6-35B-A3B在这方面有明确的高分表现,不管是图片里的目标定位,还是多语言的空间理解,都能轻松应对,多模态的全面性直接拉满。

为啥能轻松战胜谷歌Gemma 4

很多人可能会好奇,为啥Qwen3.6-35B-A3B只用30亿激活参数,就能干翻谷歌31BGemma 4,其实核心就在四个技术优化上,每一个都踩在了模型优化的关键点上。

首先是稀疏MoE架构的革新,这是最核心的一点。传统的稠密模型运行时要调动全部参数,算力消耗大,而这款模型用的稀疏架构,总参数350亿但只激活30亿。

相当于把算力用在刀刃上,算力效率直接提升了10倍,而且性能不仅没降,反而还提升了,这就解决了小模型性能弱、大模型算力贵的痛点,两全其美。

其次是针对智能体编程做了专项优化,不是泛泛的训练,而是精准对标代码生成、终端操作、工程开发这些实际场景做了深度训练。

这也是为什么它在编程相关的测试里能领先20多个点,相当于专门练了独门绝技,在自己的强项上自然没人能打。

然后是原生的多模态融合,这一点比很多开源模型都做得好。很多模型的多模态能力都是外挂模块实现的,语言模型和视觉模型是分开的,对接起来容易出问题。

Qwen3.6-35B-A3B是把视觉、语言、视频的理解能力做了统一建模,从底层就融合在了一起,不用额外对接,理解精度更高,用起来也更稳定。

最后是超长上下文的支持,这款模型最高能支持256K的上下文窗口,简单说就是能处理更长的文本、更复杂的文档。

不管是几万字的技术文档解析,还是复杂的工程任务规划,都能一次性处理,不用分段。

而谷歌Gemma 4-31B在这方面的能力就弱了不少,处理长文本任务时很容易出现信息丢失,这一点在实际应用中差距会特别明显。

说实话,研究完Qwen3.6-35B-A3B的各项数据和实际体验后,真的被阿里的技术实力惊艳到了,这款模型完全刷新了我对开源小模型的认知。

可以说Qwen3.6-35B-A3B重新定义了开源小模型的性能天花板。更重要的是,解决了开源模型落地的核心痛点,性能强、算力成本低、生态完善、上手简单。

不管是个人开发者用来做学习和开发,还是企业用来做商业落地,都能满足需求。有兴趣的小伙伴赶紧去试试吧。

想系统掌握AI核心技能、获取行业认可资质?

CAIE注册人工智能工程师认证

助你拓宽职业赛道,成为AI领域持证实力派

微信小程序
CAIE 认证
CAIE 认证
CAIE认证
以上内容来自微信小程序

企业、高校及渠道合作

请联系微信:FYLlaoshi

图片

完 谢谢观看

确定要退出登录吗?
确定 取消
推广有奖