2022年12月到2026年3月,1203天里发了786条帖子,平均每个活跃日1.2条。这串数据来自一位Rust社区的老哥,他干了一件事:专门搜集用Rust写的命令行工具,然后像集邮一样晒到社交平台上。
现在他手里攒了800多个项目,从中挑出了99个"Top级"的。这事听起来有点疯,但看完他的动机,你可能会觉得——这哥们把开源社区当成了大型寻宝游戏。
为什么有人愿意当"人肉爬虫"
他自己列了四条理由。第一,喜欢Rust,想让更多人看到这东西能造出什么;第二,他维护着一个叫Ratatui的终端界面库,晒用Ratatui做的项目等于给自家生态打广告;第三,很多好东西被埋没了,需要有人挖出来;第四,"hella fun"——就是爽。
这套逻辑很像产品经理做增长:既有情怀驱动,也有明确的生态位考量。Ratatui是Rust圈里做TUI(文本用户界面)的主流框架之一,但TUI本身是个小众赛道。通过持续曝光其他开发者用Ratatui做的工具,他实际上在给这个技术方向持续输血。
一位Rust生态的领袖级人物给他留过言:「I love these posts :) highlight of my day to see all the awesome stuff people do」。这种反馈成了他的正循环燃料。
他的"情报网"是怎么搭的
discovery渠道分三层。第一层是常规操作:GitHub搜索、社交媒体、口口相传。第二层是垂直社群——Ratatui、Grindhouse、Terminal Collective这几个Discord服务器,他专门盯#showcase和#show-and-tell频道。第三层是 newsletters,比如Terminal Trove的周报。
有个细节挺有意思:他觉得GitHub搜索被低估了。比如直接搜"Ratatui"能找到大量关联项目,这种"用技术标签反向挖掘"的方法,比等算法推荐更高效。
采集流程很原始——纯文本文件记待办列表,每天发一条。他自嘲说"miss a day or two"也没关系,但目标是"keep the cheese rolling"。这种低技术栈的工作流,反而保证了可持续性。
数据暴露了什么
他用Rust写了个脚本(用了megalodon-rs库),把Mastodon上的帖子全抓下来分析。结果如下:
786条帖子,总收藏10655次,总转发4529次,总回复658次。平均每帖13.56个收藏、5.76次转发、0.84条回复。653个活跃日,算下来每天1.2帖。
engagement率不算爆炸,但极其稳定。13.56的收藏/帖比例,说明内容质量够硬——不是流量型爆款,而是精准触达目标人群。转发率是收藏率的42%,这个比例在垂直技术内容里算高的,意味着用户愿意把内容当成社交货币。
回复率只有0.84,几乎没讨论。这符合"发现型内容"的特征:大家看完觉得"卧槽 cool",点个收藏转发,然后继续刷下一条。没人吵架,也没人写长评。
99个Top项目意味着什么
他从800+项目里筛出99个,做了个排行榜。完整列表有600多个,剩下的可能是质量不够硬、或者还没轮到他发。
这个筛选标准他没细说,但结合他的发帖规律,能推测几个维度:视觉冲击力(TUI的界面好不好看)、功能独特性(解决什么具体问题)、技术完成度(代码质量、文档)。
Ratatui生态的项目肯定占大头。这个库本身是做"终端里的GUI"的,比如系统监控面板、音乐播放器、文件管理器。用Rust写这类工具,优势是性能和内存安全,劣势是开发门槛高。他持续曝光这些项目,客观上降低了后来者的决策成本——你看,这么多人都用Ratatui做出了能用的东西。
有个对比值得注意:他只在Mastodon做自动化统计,因为"其他平台对自动化不友好"。这暗示他的主战场其实是去中心化社交,而非X或LinkedIn。Mastodon的技术社区氛围更浓,算法干扰更少,适合这种细水长流的内容策略。
现在他把分析脚本开源了,Top 99列表也公开了。如果你也在做命令行工具,或者单纯好奇Rust社区在折腾什么,这800个项目里藏着的99个"狠货",会是一个不错的切入点。
最后一个问题:如果你每天花20分钟发掘一个小众领域的新东西,三年后你会攒出什么?
热门跟贴