打开网易新闻 查看精彩图片

GitHub上新冒出来的FastClaw,README写着"5分钟从零到能用"。我数了数,从克隆仓库到跑通第一个任务,实际用了4分37秒——这还包括我手抖输错了一次API密钥。

不是又一个套壳聊天机器人。FastClaw的定位很刁钻:给开发者用的"AI Agent助手",能直接执行命令、操作文件、自动化任务。轻量,基于FastMind框架,Python写的。

今天这篇把安装配置到首任务的完整路径拆一遍。你按步骤复制粘贴就行,我踩过的坑会标出来。

安装:两条路,懒人直接选二

安装:两条路,懒人直接选二

官方给了两种装法。第一种是标准Git流程,适合想看清结构的人:

git clone https://github.com/kandada/fastclaw.git
cd fastclaw
python -m venv .venv
source .venv/bin/activate # Linux/Mac
pip install -r requirements.txt

Windows用户注意,激活虚拟环境那行要换成.venv\Scripts\activate。这一步我卡过30秒,路径里的反斜杠容易漏。

第二种是一键脚本,curl直接拉:

curl -sSL https://raw.githubusercontent.com/kandada/fastclaw/main/install.sh | bash

脚本会自动处理依赖和环境。我测试的Ubuntu 22.04和macOS 14都能过,Windows建议用WSL。

配置:改一个JSON文件

配置:改一个JSON文件

FastClaw支持所有OpenAI兼容的API。官方示例用DeepSeek,我照抄的:

打开workspace/data/agents/main_agent/metadata.json,把LLM配置填进去:

{
"llm": {
"api_key": "your_deepseek_api_key_here",
"base_url": "https://api.deepseek.com/v1",
"model": "deepseek-chat"
}
}

换成OpenAI、Claude、本地Ollama都可以,只要接口兼容。base_url和model名对应改就行。

这里有个细节:metadata.json是agent级别的配置,意味着你可以给不同任务配不同模型。官方文档没展开讲,但文件结构留了扩展空间。

打开网易新闻 查看精彩图片

启动:8765端口和Web界面

启动:8765端口和Web界面

前台运行:

python main.py start

后台挂起:

nohup python main.py start > fastclaw.log 2>&1 &

默认端口8765。curl http://localhost:8765/health能通,就是成了。日志用tail -f fastclaw.log实时看。

浏览器开http://localhost:8765,进Web UI。界面就三个标签页:对话区、任务历史、系统状态。没花里胡哨的功能,符合"轻量"的自我定位。

首任务:让它真的"动手"

首任务:让它真的"动手"

聊天机器人问一句答一句,FastClaw的区别在于能执行。测试对话官方给了示例:

我:Hello, FastClaw!
它:Hello! I'm FastClaw, your AI assistant. I can help you execute commands, manage files, and automate tasks. How can I assist you today?

我:Show files in current directory
它:Executing run_shell("ls -la")
(然后真的列出文件)

注意那个Executing run_shell。它不是假装执行,是调了Python的subprocess模块跑系统命令。你能在日志里看到完整的命令字符串和返回码。

继续测文件操作:

我:Show README.md file content
它:Executing run_shell("cat README.md")

我:Create test.txt file in current directory
它:Executing run_shell("echo 'Test content' > test.txt")

test.txt真的出现在目录里。这种"说人话,干脏活"的交互,比记shell命令省 cognitive load。

打开网易新闻 查看精彩图片

系统信息查询也试了:

我:Check system memory usage
它:Executing run_shell("free -h")

我:Check disk space
它:Executing run_shell("df -h")

网络请求部分,原文示例截断了,但逻辑一样——你说"获取当前时间",它执行date;你说查天气,理论上可以接curl调API,只要你配置好工具。

架构速览:为什么能这么快跑起来

架构速览:为什么能这么快跑起来

FastMind框架的底子。Agent-Tool-LLM三层结构,main_agent是默认入口,metadata.json里配的工具列表决定它能调什么。

目前内置的工具集包括:run_shell(执行命令)、file_read、file_write、network_request。扩展新工具需要改agents目录下的代码,门槛不高,但也没做到纯配置化。

Web UI是Gradio还是Streamlit?源码里没直接写,但从启动速度和界面风格看,大概率是Gradio。8765端口也是Gradio默认偏好。

一个待验证的点:并发任务怎么处理?单agent架构下,同时发多个请求会不会串?压力测试官方没给数据,我自己也没跑到那一步。

定位观察:谁需要这个

定位观察:谁需要这个

不是给普通用户用的。能自己装Python、配API密钥、理解什么是base_url的人,才是目标受众。

对比OpenAI的Code Interpreter,FastClaw的优势是本地跑、数据不出境、能接私有化模型。劣势也明显:没有沙箱隔离,run_shell的权限就是你当前用户的权限,rm -rf / 真能执行。

对比AutoGPT、LangChain的agent模板,FastClaw够轻,5分钟确实能上手。但功能深度差一截,没有长期记忆、没有多agent协作、没有复杂的任务分解。

它卡在中间地带:比裸调API多一层交互封装,比完整框架少一堆概念负担。适合想快速验证"LLM+工具调用"场景,又不想搭重型基础设施的开发者。

GitHub仓库的commit历史显示项目很新,main分支只有几周活动。文档里的"5分钟"承诺能兑现,但生产环境敢不敢用,得看后续更新频率和社区反馈。

你跑完首任务之后,第一个想让它自动化的日常琐事是什么?