千问3.5重磅开源!多项基准媲美GPT-5.2

AI资讯8小时前更新 EdgeClaw
108 00

配图

前阵子,各个大模型厂都纷纷迭代更新自家产品,其功能之多,看得人眼花缭乱。当大家以为快过年了,AI圈手里的牌都打完了吧,没成想,阿里千问直接顺手甩了一对王炸。

配图

没有任何预热,没有搞发布会,全新一代大模型Qwen 3.5-Plus重磅开源。其多模态理解、复杂推理、编程、以及Agent等核心维度,不仅全面领先同级开源模型,更在多项基准上足以媲美各种顶级闭源模型。

这一次,核心的亮点主要如下:

  • 原生多模态:告别”拼装”挂件,实现对物理世界的无损直觉感知
  • 性能倒挂:多项基准媲美甚至超越GPT-5.2和Gemini-3-Pro等顶级闭源模型
  • 架构突变:采用极致稀疏MoE架构,总参数397B,但推理激活仅需17B
  • 价格屠夫:API价格仅为Gemini-3-Pro的1/18,但部署显存占用降低60%,推理效率大幅提升

这意味着,我们用跑20B模型的算力成本,就能获得接近400B模型的智力水平,API定价还便宜得离谱,这下真的是做到物美价廉了。

此外,它还顺手把支持语言扩展到了201种,一跃成为全球通用的世界模型。对小语种兼容性更强,意味着模型后续能够学习到更密集的世界知识和推理逻辑。

像我测试过程中,拿它来处理一些复杂的数学推理题,即便是字迹潦草的手写数学题,它依然能够精准识别出所有公式,并进行正确推理。

更让我意外的是它的”视觉编程”能力。我把一张随手画的草图扔给它,让它直接生成代码。仅仅6.3秒的思考,它就完成了对草图的解构,并生成了完整的HTML页面。这种”让视觉编程真正成为生产力工具”的能力,阿里这次是真的做到了。

目前看来,Qwen 3.5-Plus可算得上是能真正融入生产流的Visual Coding开源大模型。它向行业证明了,最顶尖的视觉直觉和逻辑推理,不一定要万亿参数的堆砌,也不再是巨头模型技术护城河。

对于开发者而言,后续仅需极低的成本,就能构建一个”能看懂草图、能自动修Bug”的超级智能体。

配图

© 版权声明

相关文章