henry 发自 凹非寺
量子位 | 公众号 QbitAI
Clawdbot(现名为OpenClaw),现在火到什么程度呢?
不到一周,GitHub直冲12万Star,“配件”Mac mini卖断货,阿里、腾讯火速接入,链接飞书的教程,满天飞。
就连Anthropic都急得让它改名,两次
之所以这么火,不为别的。
就因为Clawdbot让AI不再是一个普通的chatbot,而是一个7×24小时不摸鱼的AI员工
你睡觉,它分析;你开会,它盯盘;你忙其它,它继续干活。
而且只要手机上一条消息,它就能随时响应,干好了还会主动call你。
当然了,Clawdbot也并非完美。
不少网友发现,一到真用起来的时候,钱包立马遭不住了。
毕竟,它可能吭哧吭哧地转了一整天,只解决了一个小问题,就已经悄悄卷走你几百美金的Token费,主打一个不白干。
好在,这事儿也不是没有办法。
最近,GitHub上新开源了一个国产框架,叫玄武CLI
它可以让你不用买Mac mini,也不用再为API花钱,直接在本地跑Clawdbot,而且还原生适配了价格更实惠的国产芯片。
这下,龙虾(Clawdbot)
是真的“香”了。
玄武CLI:国产开源版Ollama
简单来说,咱可以把玄武CLI理解成一个国产开源版的Ollama。
一方面,它把本地部署模型这件事,做成了“应用商店式”的体验:
选模型、拉下来、直接用,不用纠结格式、路径和一堆零碎配置。
另一方面,它把那些原本最容易劝退新手的活儿:
配环境、装驱动、对架构、调参数、盯显存、查文档、写服务接口,也都提前兜住了。
在使用上,玄武CLI的命令体系与Ollama高度一致:xw pull / run / list / stop,会用Ollama的基本就能无缝上手。
比如,只需要一行拉取(pull)命令:
xwpull qwen3-32b
玄武会自动完成模型下载、切分和加载。首次启动后,模型即可快速响应,32B及以内模型基本都能在30秒内完成启动。
接着再输入:
xwrun qwen3-32b
就可以直接和模型对话了,不需要额外搭WebUI,也不用自己写服务。
除此之外,像xw list / ps这些命令,也把本地模型管理顺手解决了:装了什么、跑着什么一眼就能看清,调试和运维都很省心。
有了这些,模型就不仅仅能在本地跑起来,还可以:
- 直接作为本地AI引擎,接入Clawdbot变成7×24小时在线执行器;
- 连到工作流(如Dify)、自动化脚本或内部系统,替代云端API做代码、分析、批处理。
模型、算力和数据都在本地,不仅节省成本,也避免了Agent权限可能带来的信息泄露风险,直接爽玩Clawdbot。
开源易上手,无缝兼容各类框架
玄武CLI自身的安装和部署也非常简单,并且完全开源
GitHub/GitCode一键安装,解压即用,支持Docker容器化部署,真正做到0成本入门
GitHub:https://github.com/TsingmaoAI/xw-cli
GitCode:https://gitcode.com/tsingmao/xw-cli
在安装层面,玄武CLI不用配复杂环境:无需手动处理依赖,下载解压就能运行。
玄武CLI仅依赖基础驱动即可实现硬件的识别与探测,通过预编译推理引擎极简启动,最快1分钟就能启动服务。
同时,玄武CLI原生支持多卡、多实例并行,每个模型实例互相隔离,即便某个实例出问题,也不会拖垮其他服务。这让它具有更好的稳定性和可扩展性。
在应用接入层,玄武进一步把“替换成本”降到最低。
它原生兼容OpenAI API规范,像LangChain、LlamaIndex这类常见框架,甚至IDE插件场景,通常只需要改一行API地址,就能把原本的云端调用,切换成本地模型。
此外,在启动和运行时,玄武会按需加载模型,并结合量化精度动态分配显存和显卡资源,避免长时间等待,同时充分利用本地硬件。
正因为这些特性,玄武CLI特别适合作为Clawdbot这类Agent的“本地发动机”,而且不仅限于Agent,各类开源大模型也都可以一行命令接入。
国产芯片原生适配
如果说前面讲的,是让本地跑模型简单易上手,那真正让玄武拉开差距的,是它对国产芯片的原生适配
像Ollama这种本地模型方案,体验成熟,但底层基本还是围着英伟达那套体系走,硬件成本自然高。
而玄武CLI则选择了更亲和、性价比更高的国产算力,让本地跑模型变得可行且经济。
过去国产芯片跑模型,常遇到配置复杂、性能波动、生态碎片化的问题,能跑但没人敢用。
不同厂商使用不同驱动、算力接口和通信库,文档不完整、问题难复现,一旦遇到bug,很难通过搜索或社区快速解决。
与此同时,不同的应用也面临异构芯片适配难题:即便模型能跑,不同项目、不同框架在不同芯片上部署,也可能完全不同,增加了开发成本和不确定性。
面对这一困局,玄武CLI并没有选择“写一套更详细的教程”,而是直接在框架层“吞掉”了复杂度。
它将所有硬件差异封装在最底层,向上构建了一个统一的算力资源池。
无论底下插的是什么卡,玄武都能自动识别芯片类型,结合模型规模与显存状况,自动匹配最合适的推理引擎,并在多卡、多实例场景下实现智能调度。
这种“黑盒化”处理,彻底解决了模型启动卡死、服务不稳定的问题。
而支撑这一能力的底座,正是玄武CLI分层设计的系统架构:
最上层,是开发者熟悉的命令行和标准API,中间层负责模型调度、资源管理和生命周期控制。
而关键能力集中在推理引擎这一层。
在这一层,玄武采用的是多引擎并行架构:既有侧重深度优化的自研引擎MLGuider,也支持华为原生的MindIE,同时兼容遵循社区标准的vLLM,并配套了进程隔离(IPC)和自动路由策略。
这种多引擎并行架构,保证了无论用什么卡、跑什么模型,都能找到最优解。
彻底抹平了不同国产芯片之间的底层技术差异,让开发者无需关注硬件细节,就能实现跨芯片的模型部署。
再结合离线可用、不依赖云端的特性,玄武CLI实际上是在国产算力环境中,补齐了一块长期缺失的基础设施,让模型部署变得轻松可控。
清昴智能是谁?
最后,让我们介绍一下玄武CLI背后的清昴智能
清昴智能成立于2022年,核心聚焦芯片适配,以及模型—框架—算子的联合优化。
创始人兼CEO关超宇是清华特奖最年轻的获得者。
成立三年以来,清昴智能已获得华为哈勃战略投资及多家国内一线基金的亿元级支持。
在技术上,清昴走的是端到端的系统级优化路线:以自研异构推理引擎MLGuider为起点,向下协同硬件设计,向上支撑玄武智算平台与Agentic AI平台,实现从硬件协同到算子、框架、模型再到智能体的全栈优化。
在落地上,清昴曾推出多种国产一体机方案,达成稳定16+TPS的高性能吞吐表现。
目前MLGuider已完成15+主流芯片适配,在满足预期推理效果下,可有多种国产方案进行最优选择。
比如支持Qwen 80B方案,通过玄武CLI可支持华为华为300I Duo,300I A2等多种性价比方案。
这次新开源的玄武CLI,也延续了清昴对开源共建的长期判断:让开发者和企业不用花大价钱,也能真正用上国产算力和好用的本地AI工具。
面向未来多智能体、多模态协作的趋势,清昴提前布局Agentic AI平台,为“每个公司拥有N个数字员工”的时代,打好最底层、也最关键的地基。
而Clawdbot,只是其中一个轻量级尝试——
你今天就能把它拉起来,让自己的电脑变成一个“数字员工”,提前感受未来智能体时代的雏形。
体验链接:
GitHub:https://github.com/TsingmaoAI/xw-cli
GitCode:https://gitcode.com/tsingmao/xw-cli
热门跟贴