几周前,我在Reddit上刷到一个老游戏的精神续作讨论帖。社区想重做这款童年回忆,但人手不够。
我的脑子突然拐了个弯:我Claude订阅每天剩的额度,还有本地跑模型的那台机器,晚上不都在吃灰吗?
能不能把这些"剩饭"借给他们?
这个想法越来越具体:不是文件分享那种P2P,是机器之间直接对话——你扔一个任务过去,它把结果扔回来。一群志愿者各自出一点算力,拼成一个AI工蜂群,帮小项目跑测试、审代码、写文档。
听起来像做梦?我承认。但我和Claude Opus花了几周,真把这个原型搓出来了。
叫它"蜂巢"(Hive)。
核心图:蜂巢怎么转起来
整个系统就两个角色:蜜蜂(Bee)和蜂主(Owner)。
蜜蜂是贡献端。你装个软件,勾选愿意分享什么——本地模型、云端API额度、还是两者都要。然后该干嘛干嘛。软件在后台等着,有任务来就接,做完传回去。
蜂主是需求端。小开源项目的维护者,把蜂巢客户端挂到自己的代码仓库。系统会自动拆任务、派给在线的蜜蜂、收结果、拼回去。
技术栈很实在:Rust写核心,Tauri套壳,前端HTML/JS。作者原话是"UX能更好,但够用了"。
关键设计在这张图里:蜜蜂和蜂主之间直接握手,不经过中央服务器转包任务。只有初始发现和轻量协调走中继,实际推理数据点对点传。
为什么是现在?三个条件刚凑齐
这个点子十年前不可能,五年前没必要,现在刚刚好。
第一,本地模型能用了。Llama、Qwen、DeepSeek这些,消费级显卡就能跑出可用质量。你书桌上那台机器,晚上本来就是小型数据中心。
第二,订阅制制造了"额度焦虑"。Claude Pro、ChatGPT Plus、Gemini Advanced——每天限额用不完觉得亏,用完了又着急。这种心理账户的剩余,是完美的共享燃料。
第三,开源项目的算力饥渴真实存在。作者举了个场景:两三个人维护的副业项目,想加个CI自动审PR,OpenAI API账单直接劝退。但如果有二十个用户每人捐一小时本地推理?成本归零。
作者的原话很直白:「你不需要懂代码库,不需要写一行代码。你只需要足够关心一个项目,愿意在做别的事时开着客户端。」
这是一种新的开源贡献方式。以前你能给时间、给钱、给代码。现在你能给算力。
技术实现:Rust和Tauri的务实选择
原型用Rust写网络层,图的是性能和跨平台。P2P连接用QUIC协议,穿透NAT靠STUN/TURN打洞,失败就回退到中继。
Tauri做桌面壳,比Electron轻量得多。安装包体积小,内存占用低,对志愿者友好——谁也不想为了"做公益"装个臃肿的Electron怪物。
任务调度目前很简单:蜂主拆出独立任务(比如审单个文件、跑单组测试),蜜蜂随机领取,超时重派。没有复杂的负载均衡,也没有质量评分系统。
作者承认这是故意的:「先让东西转起来,再优化。」
安全模型靠信任网络起步。蜜蜂只接认识的蜂主,或者经过社区背书的公开项目。未来可能会加声誉系统,但原型阶段手动白名单够用。
两个被刻意回避的问题
读代码时注意到两个有趣的省略。
第一,没有代币,没有区块链。作者完全没提通证激励,连"未来可以考虑"的客套话都没有。纯志愿模式,靠社区认同感驱动。
第二,没有算力定价。蜜蜂不知道自己的贡献值多少钱,蜂主也不知道该付多少。整个系统现在是礼物经济,不是市场经济。
这两个选择很清醒。加上金融层,复杂度指数级上升,监管风险紧随其后。作者想先验证核心假设:有没有人愿意无偿分享闲置算力?
如果这一步跑不通,代币只是加速死亡。如果跑得通,再考虑怎么可持续。
谁会用?三类早期场景
从原文描述里能抠出三个最自然的落地场景。
第一类,怀旧游戏社区。作者自己的灵感来源——一群粉丝想重制老游戏,没有商业预算,但成员分散在全球,各自有本地机器。晚上挂蜂巢,白天看进度。
第二类,学术开源项目。实验室里学生毕业,代码没人维护。新学生接手时,蜂巢可以帮忙批量处理积压的issue分类、文档更新、测试补全。
第三类,个人开发者的小工具。一个人写的Chrome插件、VS Code扩展,想加AI功能但付不起API账单。用户里愿意捐算力的,比愿意掏钱的,可能多一个数量级。
这三个场景的共同点:项目本身不盈利,维护者时间碎片化,用户有强烈情感连接。
局限和未解的问题
原型阶段的问题,作者没藏着。
任务类型受限。目前只适合 embarrassingly parallel 的任务——能拆成完全独立的小块,彼此不依赖。复杂的多轮推理、需要上下文的对话,还塞不进这个框架。
质量一致性难保证。蜜蜂用的模型五花八门,同样的代码审查任务,Llama 3.1和GPT-4o给出的结论可能打架。蜂主需要设计冗余策略,或者接受"够用就行"的精度。
隐私边界模糊。如果任务是审私有代码库,蜜蜂本地能看到完整文件内容。技术上可以加密,但加密后模型没法直接推理,需要可信执行环境——原型完全没碰这层。
最诚实的局限来自作者自己:「我完全是梦想家。」
整个项目源于一个Reddit帖子引发的脑内短路,技术实现靠Claude Opus辅助,原型代码是几周晚上的产出。没有经过生产环境检验,没有用户规模验证,甚至没有完整的测试覆盖。
但它完成了一个关键动作:把"共享AI算力"从抽象概念,变成了可点击、可安装、可运行的软件。
为什么这件事值得盯着
蜂巢原型最有趣的地方,不是技术架构,是它试探的边界。
AI算力正在经历当年云计算的演变:从集中式数据中心,到边缘节点,再到现在的个人设备。但"个人设备"这一步,目前主要是自用——本地模型跑给自己看。
蜂巢问的是:个人算力能不能像带宽一样,成为可共享的基础设施?
这个问题背后有更深的趋势。模型在变小,端侧能力在变强,订阅制的"剩余额度"在累积。同时,开源项目的AI化需求在爆发,但商业化闭源API的定价模型,对小项目越来越不友好。
如果这两个趋势持续,某种形式的P2P算力共享几乎必然出现。蜂巢是早期探路者之一,而且选择了最轻量的路径:没有代币,没有DAO,没有宏大叙事,就一个客户端,两个角色,能跑起来再说。
这种克制可能是优势。过去两年,太多AI项目死于过度设计——还没验证需求,先搭一套复杂激励。蜂巢的原语足够简单:你相信这个项目,就开着客户端。
当然,简单也意味着脆弱。没有经济激励,纯靠社区热情,能支撑多大网络?任务类型受限,能不能扩展到更有价值的场景?隐私和安全,会不会成为规模化瓶颈?
这些问题作者没回答,也可能回答不了。但原型已经放在那里,GitHub仓库公开,Rust代码可编译,Tauri界面可点击。
下一个验证点很清晰:有没有真实项目愿意接进去,有没有真实用户愿意挂着。
热门跟贴