
AI Agent正以前所未有的方式融入我们的工作流。但当我们兴致勃勃地将其投入实际工作中时,当前的Agent使用模式却暴露了三个突出问题:

- 云端「不敢用」:想让Agent分析一份客户数据表?客户的姓名、手机号、身份证号……这些敏感信息随上下文一起发到了云端第三方服务器
- 云端「用不起」:只想用grep查找一个函数调用的位置,Agent却二话不说直接调用最昂贵的顶级模型处理,杀鸡用牛刀
- 本地「用不好」:在本地跑模型安全又便宜,但做做格式转换还行,一旦涉及多文件交叉分析,模型就”宕机”
显然,最佳答案是端云协同:让轻巧的本地模型处理隐私数据和简单任务,把复杂的”硬骨头”交给强大的云端模型。
清华大学THUNLP实验室、中国人民大学、AI9Stars、面壁智能与OpenBMB联合发布并开源ClawXRouter,正是为了解决这一问题而生!
三级隐私路由:ClawXRouter通过植入钩子(Hook),像安检一样自动扫描每一条消息、工具调用和Agent输出,并将其分为三级:
- S3(私密):SSH私钥、硬编码密码、工资单,完全由本地模型离线处理
- S2(敏感):含内网IP的告警日志、含手机号的联系人列表,自动智能脱敏后转发云端
- S1(安全):普通问题,直接发往云端
性价比感知路由:ClawXRouter内置了一个由本地小模型担当的「任务评估师」,它会快速判断任务复杂度,然后将请求分发给最合适的模型。效果如何?在PinchBench上测试:成本节省58%,性能反而提升6.3%!
云侧不敢用、用不起,端侧用不好,ClawXRouter的答案是:不必二选一,让端侧和云侧各尽其能。
GitHub:https://github.com/OpenBMB/ClawXRouter

© 版权声明
文章版权归作者所有,未经允许请勿转载。



