3周前,一个程序员在Hacker News发了条帖子。标题平淡得像白开水:「我给个人博客做了个头版」。结果48小时内,这个叫「Personalsit.es」的项目被顶到首页,评论区炸了锅——有人喊「这才是互联网该有的样子」,有人冷笑「RSS死透了你来扫墓」。

数据挺有意思。上线第一周,收录的博客从0涨到400+;现在每天新增30-50个提交。创始人没露真名,只在GitHub留了个代号「sweepy」。但他在评论区很活跃,每条质疑都回,像个守在柜台后面的店主。

这个项目到底做了什么?简单说:把散落在互联网各处的个人博客,用人工审核的方式聚合成一张「报纸头版」。

不是算法推荐,不是社交媒体的瀑布流。每个博客条目都要经手审核,确保是真人写的、有持续更新、不是营销号伪装。界面复古得像2005年的CSS练习:黑白配色、等宽字体、按日期倒序排列。没有点赞数,没有阅读量,没有「你可能喜欢」。

为什么偏偏是现在?

为什么偏偏是现在?

个人博客的复兴已经喊了五年,但一直没找到合适的「入口」。RSS(简易信息聚合)技术太老,普通用户装个阅读器就像学一门方言;Substack和Medium把写作变成订阅经济,创作者盯着转化率写字;Twitter/X把碎片化内容推到极致,长文反而成了异类。

sweepy在评论区解释动机:「我想找回那种『偶然发现』的感觉。」他类比得很具体——以前逛博客像逛书店,你不知道下一本是什么,但手摸到封面的瞬间就有预感;现在的推荐算法像外卖App,精准投喂,吃完就忘。

这个类比被顶了200多次。但反对者 equally 尖锐:「你这不是复古,是开倒车。」有人算了一笔账:400个博客,假设每个每周更新1篇,读者每周要消化400篇长文,「这不是信息筛选,是信息洪水」。

人工审核是护城河,还是瓶颈?

人工审核是护城河,还是瓶颈?

sweepy的审核标准写得很细。必须有个域名的独立博客,不接受子域名(比如xxx.medium.com);必须有「关于我」页面证明是真人;内容更新间隔不能超过6个月。最后一条卡死了大批「年更博主」。

审核速度成了最大槽点。上线第一周,积压队列一度超过200个站点。sweepy在GitHub issue里坦承:「我一个人,每天能审20-30个。」有用户提议开放众包审核,被否决——「质量会崩,我见过太多『个人博客』点进去是AI生成的SEO农场。」

这个拒绝引发更深层的争论。支持者认为,人工审核恰恰是反算法的壁垒,「慢是 feature,不是 bug」;反对者觉得这是精英主义,「谁定义什么是『真人写作』?标准里全是英语世界的审美」。

数据侧面印证了这种张力。收录的博客中,英语站点占78%,中文、日语、德语合计不到15%。sweepy回应正在招募多语言审核志愿者,但进度缓慢。

技术栈简单到「羞辱」同行

技术栈简单到「羞辱」同行

项目开源后,GitHub星标数3天破千。但程序员们的关注点有点歪——技术栈太简单了。前端用Tailwind CSS(一种实用优先的CSS框架),后端是Next.js(基于React的全栈框架),数据库直接上PostgreSQL。没有AI推荐,没有向量检索,没有实时计算。

sweepy在README里写了一句:「复杂是偷懒的借口。」这句话被截图转了无数次。有人解读为对硅谷技术崇拜的嘲讽,有人觉得只是给自己省事的托词。

但一个细节很有意思。项目拒绝了所有广告和赞助请求,服务器成本靠个人承担,每月约120美元。sweepy说暂时不考虑捐赠,「先跑一年,看能不能靠爱发电」。评论区有人算了一笔账:按当前增速,收录站点破5000时,审核时间将延迟到3个月以上——除非改变模式。

Hacker News的撕裂,其实是互联网的撕裂

Hacker News的撕裂,其实是互联网的撕裂

这条帖子的评论区,正反双方几乎势均力敌。支持者的典型发言:「我终于不用在Twitter的噪音里找长文了」;反对者的典型发言:「又一个程序员以为自己的 nostalgia 是 universal 需求」。

有个叫「dang」的用户(Hacker News管理员)罕见下场评论:「这个项目让我想起2007年的Delicious(早期社交书签网站),那时候我们以为标签能解决一切。」他没说后半句,但所有人都懂——Delicious后来被雅虎收购,然后死了。

更微妙的争议在于「个人」的定义。有人提交了自己的博客,被拒,理由是「内容太像技术文档」。申诉未果后,他在另一条评论里吐槽:「原来个人博客也要符合『个人』的刻板印象——必须是生活随笔、读书感悟、旅行照片?」

sweepy的回应很直接:「技术文档很好,但已经有更好的去处(GitHub、Stack Overflow)。我想保留的是『不可归类』的写作。」这个区分标准,本质上是在定义一种审美等级。

现在,Personalsit.es的日活在2万左右,对一个零推广的个人项目来说不算差。但对比Hacker News本身的日均500万访问量,它更像一个精致的样板间——证明某种生活方式可行,但未必能规模化。

sweepy最近在测试一个新功能:每周邮件简报,精选10篇收录博客的文章。这是向RSS的某种回归,也是向订阅经济的妥协。他在最新一条GitHub commit里写:「也许最终形态是一个更慢的、更挑剔的、更人工的互联网。我不知道有多少人真的想要这个。」

你上一次完整读完一篇陌生博客的长文,是什么时候?