每天早上8点半,一台Mac电脑自动写完4篇1200字的AI行业报道——带引用、分析师观点、结构化标题——然后推送到GitHub,部署到Cloudflare Pages。API费用:0美元。
这不是概念验证,而是一个已运行数月的生产系统。核心技巧出人意料:把claude --print当作子进程调用,绕过传统API计费模式。
要解决什么问题
作者运营着AI Agents Directory,一个收录2800多款AI工具、覆盖305个分类的导航站。这类参考型内容搜索价值高,但缺乏时效性内容支撑话题权威度,也不利于Google排名。
雇佣写手做日更AI新闻不现实。现有AI写作工具按篇收费,长期成本不可控。目标是找到能永久免费运行的方案。
双机器人架构:零API密钥
机器人1——趋势抓取(早6点)
从三个免认证源拉取数据:
Hacker News Algolia API:完全免费,无需认证
Reddit公开JSON:无需认证,带User-Agent即可
GitHub Trending:简单爬取
系统按关键词聚类帖子,用互动量(点赞+评论×2)打分,输出结构化JSON——包含前5个话题的标题、提及公司、关键数字。
机器人2——文章生成(早8点半)
关键设计:不调用付费API,而是把已订阅的Claude Code CLI作为子进程:
claude --print以非交互模式运行,标准输入接收prompt,标准输出生成内容。它复用现有的OAuth会话——不需要ANTHROPIC_API_KEY。
Prompt工程:Bloomberg风格的约束清单
模糊prompt产出模糊文章。实际有效的约束包括:
开头必须是具体导语——命名的事实或数字,禁止提问
严格4-5个H2小标题——描述性,非通用
至少4个数据点嵌入正文(非列表形式)
通篇点名具体公司和高管
一段分析师引用,格式为> ...
至少6处加粗关键术语
至少2个内联来源链接
以"## What This Means for Practitioners"结尾——3条可执行要点
以"## Frequently Asked Questions"结尾——3个具体问答
FAQ段落双重价值:提升读者实用性,同时生成FAQPage JSON-LD结构化数据,争取Google富媒体结果。
发布前的质量验证
每篇文章在触达最终输出前经过验证层,确保格式合规、数据点充足、链接有效。
完整流程自动化:抓取→生成→验证→提交→部署,全程无需人工介入。成本结构仅包含已支付的Claude Code订阅费——边际文章成本为零。
这套系统的真正启示在于重新理解"API"的边界。当CLI工具提供与API同等的能力,却嵌入在现有订阅中时,自动化架构的设计空间被显著扩展。对于需要高频内容产出、但预算敏感的个人开发者或小团队,这种模式值得评估。
热门跟贴