打开网易新闻 查看精彩图片

956行Python,周末写完,周一早上自动跑。作者拿它审自己发在三个平台的7篇文章,SEO合规率:0%。

不是演示翻车,是故意这么设计的。作者Dann W.的逻辑很直白:「我自己建的agent,先跑自己的内容。这是诚实的demo。」

Hashnode个人主页缺H1标签。3篇freeCodeCamp教程的meta描述要么缺失、要么超过160字符。2篇DEV.to文章标题太长,Google搜索结果页会截断。问题全被揪出来,包括他自己都没注意的平台级bug。

这个场景你熟悉吗:某家数字营销公司,有人专职干这个——打开表格,逐个访问客户URL,检查标题标签、描述、H1,记录死链,粘贴进报告,每周循环。这人是要发工资的,但活儿完全是确定性的。没自动化,只是因为没人做替代方案。

作者用了一个周末做了替代方案。7个Python文件,本地Windows笔记本就能跑。

agent遇到登录墙怎么办?大部分教程到这里就死了

agent遇到登录墙怎么办?大部分教程到这里就死了

浏览器自动化烂尾的经典剧本:agent撞见登录页,抛异常,进程崩溃。你搜到的教程90%停在这一步。

打开网易新闻 查看精彩图片

这个agent不一样。检测到非200状态码、重定向到登录页、或标题含「sign in」「access denied」时,它会暂停。交互模式下让你选:跳过、重试、退出。自动模式(--auto)则直接跳过,把URL写进needs_human[]状态数组,继续跑剩下的。

知道自己的边界比假装全能更有用。这个设计决策大部分教程不会讲,因为讲清楚需要承认失败场景,而教程作者通常只想展示happy path。

作者跑完自己的内容,发现问题分两类:freeCodeCamp的描述问题部分是平台控制的——模板有时会截断或省略meta描述;DEV.to的标题问题则是他自己的锅,读起来顺的标题放进标签经常超60字符。</p>

agent不管这些。它只对照标准,输出结果。

周一早上7点,咖啡配报告

周一早上7点,咖啡配报告

完整工作流:python index.py --auto,加个.bat文件设好API密钥调用命令,Windows任务计划程序设周一早7点执行。喝完咖啡打开report-summary.txt,needs_human[]里的边缘情况人工复核,其余全自动处理。

这就是 agency 的工作流。不需要人盯着。

打开网易新闻 查看精彩图片

成本拆解:每个URL调一次Claude 3.5 Sonnet API,约$0.002。20个URL的周审成本不到5美分。Playwright浏览器本地运行,没有云浏览器费用,没有Browserbase订阅。

整套系统遵循作者一贯的$5/月哲学——和他其他项目一样。

从「写selector」到「描述你要什么」

从「写selector」到「描述你要什么」

浏览器自动化作为开发者工具已经存在十年。Playwright、Selenium、Puppeteer都很强,但都需要人写和维护selector。按钮的class名一变,脚本就挂。

这个agent的做法不同。它用视觉理解+自然语言描述来定位元素,而不是硬编码selector。作者没有展开技术细节,但核心思路清晰:让LLM看页面,告诉它「找文章标题区域」,比维护一套随时会失效的CSS路径更可持续。

GitHub仓库已开源:dannwaneri/seo-agent。使用流程很标准——克隆、input.csv加URL、环境变量设ANTHROPIC_API_KEY、pip安装依赖、playwright装chromium、运行。

作者提到正在写freeCodeCamp教程,会逐模块讲解浏览器集成、Claude提取提示词、异步链接检查器、人机协同(HITL)逻辑。教程链接届时会放在评论区。

956行代码,7篇全挂的审计结果,一个愿意先拿自己开刀的demo。这大概是2024年技术写作里最诚实的自我检验案例之一。

你的内容经得起同样标准的检查吗?还是你也需要建一个agent,先跑自己的东西?