周三下午三点,我又一次面对浏览器里炸开的27个标签页发呆——全是Hacker News上看起来很有价值的讨论串,但每一条都藏着几百条评论。等忙完手头的事回来,早就忘了哪个值得细读,哪些只是噪音。
这种"收藏即遗忘"的循环,最终逼出了TrendingTide这个工具。它不做社交,不做推荐算法,就干一件事:让你扫一眼就知道某个Hacker News讨论串里,真正值得看的是什么。
核心功能很直白。实时抓取Hacker News热榜,按"Tide Score"排序活跃讨论,支持按AI、创业、开发者工具、安全、Show HN、Ask HN等主题过滤。点击"KTA"按钮,AI会在几秒内提炼出关键要点、为什么重要、以及可能的机会点。看对眼了就直接保存,不用注册,数据存在浏览器本地。
KTA是"key takeaways"的缩写,整个流程设计得很克制。点击后服务器先查Redis缓存,有就直接返回,没有才调用Claude读评论生成摘要,结果回写缓存。同一条讨论串如果100个人同时点,Redis锁会拦住,只触发一次AI调用。这种"按需生成+共享缓存"的机制,把成本压到了个人项目能扛住的水平。
技术栈选得也很务实:Next.js做前端,Hacker News官方API抓数据,Upstash Redis管缓存、限流和锁,Vercel托管。保存功能完全本地优先——localStorage存讨论串和对应的KTA,没账号体系,没数据库,点开即用。
为什么执着于从评论里挖东西?因为Hacker News的真正价值往往不在标题。一个看似普通的帖子,评论区可能藏着:创始人的真实痛点、开发者对某款工具的集体抱怨、AI工作流的争议细节、安全漏洞的民间讨论、定价策略的血泪教训、早期技术信号的苗头。TrendingTide想做的,就是帮你在30秒内判断"这个串值得深读"还是"可以划走"。
下一步的计划是往"技术情报"方向走。用Supabase搭持久化的历史数据层,做趋势专题页比如/trend/mcp或/trend/ai-agents,输出周度情报、话题时间线、创始人机会提取。核心命题从"总结Hacker News"升级为"从技术互联网讨论中提取可用情报"。
产品已经上线,作者正在收集反馈:KTA质量够不够用,主题过滤准不准,还想加什么数据源,本地保存的工作流顺不顺手。如果你也是那个开了太多标签页的人,可以去试试看。
热门跟贴