你的 Agent 是瞎子。

这话没错。绝大多数人的 AI Agent 只能靠训练数据回答。你问"恒瑞医药今天什么政策",它要么编,要么说不知道。

解决的办法看起来很简单——接个搜索 API。

但问题在于:一台机器翻译 API 关停后,我再也不同意外包翻译——你永远不知道第二天早上哪家涨价了,哪家跑了。

今天聊聊另一种思路:

不用任何搜索 API,让 Agent 自己用浏览器查。

成本为零,结果完整,不受任何第三方牵制。

先看看市面上的方案有多贵

网上搜 Agent 搜索方案,跳出来的全是"接 Perplexity API"、"接 Brave Search"、"接 Google 搜索 API"。

打开官方文档一看,价格都不含糊。

方案

免费额度

超出后价格

是不是真免费

Perplexity

$1/百万token(基础版)

Brave Search

~1000次/月

$5/千次查询

⚠️ 勉强

Grok

$10/千次工具调用

Kimi

¥0.6/百万token

算一笔真实的账:

一个普通用户的月度搜索成本:

• 搜一次「恒瑞医药最新政策」,翻 10 页 = 几块钱

• 调研一个竞品 = 十几块

• 每天查几次 = 一个月下来好几百

这还没算大模型总结那些搜索结果的 token 费。

你要是做 Agent 工具的开发者,这成本乘以用户数直接起飞。

换个思路:Agent 自己打开浏览器

思路很简单——

人类怎么搜索的?打开浏览器,输入关键词,点开链接,看内容。

Agent 完全可以做同样的事。

用浏览器自动化(OpenCLI 的 browser 功能、Playwright、Puppeteer 都行),模拟人工操作:

# 模拟人类搜索流程:
1. 打开 Bing(或 Google、百度)

2. 在搜索框输入关键词

3. 点击搜索结果

4. 提取页面内容

5. 翻页继续

6. 自动保存到本地

全程不需要调用任何搜索 API。

浏览器能看到什么,Agent 就能拿到什么。API 返回什么字段不受你控制,但你自己抓——整个页面都是你的。

而且还有一个巨大的隐藏好处:

抓下来的页面自带文字,但大部分都不是核心信息。

本地先过滤一遍,只把关键信息(大概每页 1000 字)喂给大模型。

原本 1 万 token 的网页,到你手里只剩 1/10。

Token 消耗直接砍掉 90%。

怎么封装到 Hermes / OpenClaw / Claude 里

上面说的是原理,实操就几步。

用 OpenCLI 的 browser 命令,写一个简单的搜索脚本:

#!/bin/bash
# bing-search.sh — 浏览器自动化搜索,不需要任何 API Key

KEYWORD="$1"

PAGES="${2:-5}"

DIR="bing_result/$(date +%Y-%m-%d)"

mkdir -p "$DIR"

for ((i=1; i<=PAGES; i++)); do

opencli browser go "https://www.bing.com/search?q=$KEYWORD&first=$(( (i-1)*10 ))"

opencli browser extract-text > "$DIR/page_$i.txt"

sleep 2

done

echo "✅ 搜索完成,结果保存在 $DIR"

这只是一个示意,实际用的时候可以加上链接提取、去重、过滤脏数据。核心就两条:opencli browser go模拟浏览,extract-text提取内容。

脚本写好后,封装成 Hermes Skill 只需要两步:

# 1. 创建目录
mkdir -p ~/.hermes/skills/research/bing-search/

# 2. 把脚本放进目录

cp bing-search.sh ~/.hermes/skills/research/bing-search/

# 3. 写 SKILL.md

cat > ~/.hermes/skills/research/bing-search/SKILL.md << 'EOF'

---

name: bing-search

description: 用浏览器自动化搜索,无需 API Key,支持多页

---

在 /skills/research/bing-search/ 下有一个 bing-search.sh 脚本。

告诉用户你可以搜索任何关键词,指定翻多少页,然后汇总结果。

EOF

Hermes 自动识别 SKILL.md,之后你说一句:

"搜一下恒瑞医药,翻 10 页,总结关键信息。"

Hermes 自己调用脚本 → 抓 10 页 → 提取内容 → 总结给你。你不需要手动跑任何东西。

OpenClaw 同理,放到~/.openclaw/skills/下即可。Claude Code 也一样,Skill 协议是通用的。

而且 Hermes 在这件事上有个额外优势——它完成复杂任务后会自动把工作流封装成新 Skill

第一次你让 Agent 做"搜索 + 过滤 + 总结 + 生成报告",它老老实实跑完所有步骤。Hermes 后台把这个流程记录下来了,下次你说"帮我调研 XXX",它直接走上次沉淀的路径——跳过探索损耗。

静态 Skill vs 自进化 Skill,差距在这里。

OpenClaw 的 13,000 个社区 Skill,全部是静态的——装好什么样,用一年还是什么样。

Hermes 的 Skill 会随着每一次使用自动迭代。

一个不会进步的技能包和一个越用越强的技能包,你用哪个?

对比结果很直白

维度

接 API

自己抓

费用

按次付费,月几百

0结果完整度

API 给你什么你吃什么

整个页面都是你的稳定性

等别人维护

自己说了算token 消耗

原始全文, 1万token/页

本地过滤, 1000字/页反爬风险

API 接口被封就完了

模拟人工,难封上手难度

填个 API Key 就行

需要配浏览器环境

说白了,接 API 是花钱买方便。自己抓是花时间省钱。

对于个人用户来说,这个选择不难做——环境装一次用一年,每个月省几百块钱,傻子都知道选哪个。

还能怎么玩

基础功能跑通之后,可以延展出很多花样:

定时监控

每天早上 9 点,Agent 自动搜一遍你关注的关键词,生成简报,发到 Telegram 或微信——没人会拒绝一份自动推送的行业日报。

竞品批量分析

搜索结果的 HTML 全存在本地,可以批量拉回来对比分析,不花额外的 API 费用。

多平台覆盖

一个脚本搜 Bing,换个参数搜 Google,再换个参数搜百度——模拟人工搜索的逻辑不变,换目标网站成本极低。

搜索 + 生成 PPT 一条龙

之前写过 html-ppt-skill,一个 Skill 能在 Claude / OpenClaw / Hermes 上跑通。

如果把搜索 Skill 和 html-ppt-skill 串起来——

一句话搞定:

"帮我搜一下 AI Agent 行业最新动态,翻 5 页,总结要点,生成一份 8 页的 PPT。"
搜索(自己抓)→ 过滤(本地)→ 总结(LLM)→ 生成 PPT(html-ppt-skill)→ 浏览器打开演示

全程不调用任何付费 API。

这就是我理解的"把 Agent 用透"——不是为了用 AI 而用 AI,而是让 AI 替你干脏活累活,你自己留着力气干决策的事。

说到底

接 API 是条不归路。今天用 Perplexity 挺好,明天涨价了。后天换 Brave,大后天 Brave 限制频率了。

你的 Agent 好不容易调通了的搜索能力,换个平台又要重新配。

自己抓不一样。

一套脚本,装一次,跑在所有 Agent 框架上。

OpenClaw 能用,Hermes 能用,Claude Code 也能用。不换代码,不换配置,不交 API 费。

而且数据留存在本地,不被任何第三方看见。你做调研、查竞品、跟踪行业——所有信息都在你自己的机器上。

这个账,算清楚的人已经在动手了。

AI Agent OpenClaw Hermes Claude Code 零成本搜索