
当下,用OpenClaw等工具构建智能体已成为AI圈的现象级趋势。但企业和开发者在实操中却频频遭遇智能体”失忆”、处理复杂文档宕机、长链路任务逻辑崩盘等落地痛点。企业级Agent要想真正干活不翻车,核心在于为其匹配一个足够强大的「大脑」。

为此,作为业界仅有的三个万亿级开源多模态大模型之一,Yuan3.0 Ultra为企业智能体场景强化能力,实现更少算力、更高智能。
在上周的直播中,YuanLab.ai团队硬核展现了Yuan 3.0 Ultra赋能Agent跑通复杂业务全流程的真实表现。目前,Yuan 3.0Ultra的模型权重与技术报告已全面开源。
这次Yuan3.0 Ultra带来了两项核心技术突破:
LAEP:专家负载自适应裁剪
MoE架构的大模型就像一个百人研发团队,核心优势本该是”专业分工、高效协作”。但在真实工程中,少部分专家干了绝大多数的活,部分专家全程”摸鱼”。LAEP通过裁剪低贡献专家并重排负载,将训练效率提升49%。
RIRM:反思抑制奖励机制
解决了训练阶段的结构冗余,Yuan3.0 Ultra把目光投向了推理阶段的另一大核心浪费——大模型的”过度反思”。RIRM使训练精度提升16.33%,同时将输出token长度降低14.38%,精度上升、冗余下降,二者同向优化。
从训练到推理,打通大模型效率优化闭环。LAEP针对训练阶段的结构冗余,RIRM针对推理阶段的思考冗余:前者决定模型能力如何形成,后者决定模型能力如何被高效调用。
GitHub:https://github.com/Yuan-lab-LLM/Yuan3.0-Ultra

© 版权声明
文章版权归作者所有,未经允许请勿转载。



