openclaw之后,大厂也推出了各类国产版本,其中最近最火的就是腾讯的Qclaw,目前仅支持苹果生态,可以通过微信对话就完成自动化操作电脑,同时还有自己的SKILLS生态。
现在一个邀请码难求,甚至有朋友找到我问邀请码,不过比较遗憾的是专注做脑机接口与空间计算应用之后,就导致也没有获得邀请码了。
这里做一个问卷调研,你下载了小龙虾吗?
腾讯的Qclaw:对标telegram与Openclaw
在openclaw依托于国外的Telegram,我作为产品经理一直判断国内微信做这件事就性价比很高了,并且是必然的。
因为国内的用户社交通道还是在微信上,使用飞书、企业微信或钉钉,就注定了市场过小。
作为AIagent的会话消息入口,微信或QQ是最合适的场景。
微信的文件传输助手,每个人的帮手
最恰当的场景就是微信的文件传输助手,几乎每个白领都会用其来办公做跨端文件传输,毕竟谁也不想拿一个好友来发送资料消息。
甚至有人专门把名字头像改为微信文件传输助手,也可以让不少用户误传了。
“我一直在等大厂做这件事,结果过了几个月还是没有反应,所以就自己做了。”这是创始人是彼得·斯坦伯格(Peter Steinberger),以为这类场景需求是有人发现的,但是却没有,就自己做了。
可以看见,以用户需求出发的痛点做产品,这件事即使是AI时代,也是非常有必要的,行动力加用户需求洞察。
腾讯Qclaw支持微信账户体系:不封微信账户了
相比之前有开发者用openclaw操作微信发送消息或者豆包类手机帮助用户管理社交消息,微信官方会直接封杀账户。
而现在有官方下场,用户也就不用担心微信账户被封了。允许你正常使用自动化回复消息以及操作桌面,这其实是非常方便的
Qclaw:支持自动化小红书与学术文件整理
目前腾讯这款Qclaw支持自动化远程桌面文件以及处理工作,但是有点遗憾的现在还不能够支持打自家的游戏,估计这不仅和模型底座有关系,还可能和接下来游戏生态、外挂系统监控有关系。
但支持自动化发布小红书,不过其官方已经禁止自动化操作发布小红书了,判断是否是机器人来进行账户降权重与推流了。
所以你可以看到有用户发布自动化几乎没有阅读量或者很少也是这个原因。
Qclaw:腾讯电脑管家出品
目前出品产品的团队还是来自腾讯电脑管家团队,可以判断接下来的产品迭代是几乎是往自动化桌面电脑走了,但是最后用户还是要付费购买算力了,几乎都是腾讯云算力的入口点,一个小龙虾。
对标小龙虾的新产品:perplexity
相比小龙虾,现在还有一个针对自动化电脑的工具,也是近期爆火,支持自动化24小时运行部署在Macmini上,甚至是官方宣传片上就以Macmini为默认部署机器。
支持SaaS云端操作的个人机器贾维斯
computing model支持任何的白领办公工作内容输出,能够记住你的工作以及支持任意内容源关联,覆盖了海外市场的主流工具、社交应用,你可用进行关联匹配之后就可以完成agent自动化操作。
同时支持任务排队,可以继续创建你的任务指令,她可以并行排队等待完成,你还能够查看中间过程的任务
支持多个厂商的大模型集成,你可以任意挑选,总之官方会给积分作为新手用户,注册之后目前付费达到了1个月高达1000人民币。
随着各种个人 AI 助手工具的出现,算力需求正在迅速爆炸,但 GPU 私有化算力的供给却远远跟不上。各大硬件厂商几乎都在拼命生产 GPU 和 AI 计算设备,而真正关键的基础部件——高容量内存条,反而没有同步扩产。
结果就是一个非常现实的现象:AI 服务器和高端内存条价格一路上涨,甚至出现了“几台机器比黄金还值钱”的局面。
原因其实很简单。AI 服务器使用的内存不仅频率高,而且容量极大。普通电脑可能只有几十 GB 内存,而 AI 推理或训练服务器往往需要几百 GB,甚至数 TB 的内存配置。面对这种需求结构,厂商自然优先生产利润更高的大容量服务器内存,导致整个内存产业结构开始失衡。一个明显的结果就是:连手机内存的价格都被带着上涨。
最近我带团队在做脑机接口和空间计算相关的项目,对私有化模型部署和模型微调的需求非常高。随着“大模型养小龙虾”的概念突然爆火,现在在某二手平台上,无论是显卡、显存还是服务器内存,价格都被炒得非常高。不管是做推理还是模型训练,这些资源都变成了稀缺品。
目前个人开发者和小型科研团队常见的几种主力机器,大概包括:
Mac mini M4(16GB)
Mac Studio Ultra M3(256GB / 512GB 统一内存)
NVIDIA DGX Spark(120GB 统一内存)
这些设备既可以用于模型部署,也可以用于训练或微调大模型,可以说是现在“养小龙虾”的主力工具。
但很多人忽略了一点:
所谓的一个“小龙虾”,本质上只是一套软件模型。而为了运行它,背后往往需要几万元的 GPU 硬件,或者持续不断地支付 API tokens 费用。
这就形成了一种非常讽刺的现实:
很多人连几十块钱的音乐会员都不愿意开,仍然在用免费版听歌;
也不愿意为视频平台付费,天天找资源看剧。
但一旦进入 AI 时代,却又幻想可以免费获得强大的算力和模型能力。
所以,当你看到那张“养小龙虾”的图时,其实也就能理解为什么很多普通人的心态会是那样——他们看到的是 AI 的表面热闹,却看不到背后真正昂贵的算力成本。
普通算力,现在连大厂的云算力都不够了
更夸张的是,现在连最基础的云算力都开始变得紧张。
过去大家觉得,只要不用自己买 GPU,上云就能解决问题。但现实是,现在连大厂的云算力资源都开始出现明显的供给不足。
最近我和团队在搭建一套 AI 自动化排版系统,需要持续调用模型进行文本分析和生成。原本计划直接使用按月付费的云算力资源,但实际操作时却发现——连普通等级的算力套餐都很难订到。
打开阿里云的百炼平台就能看到一个非常直观的现象:
目前很多算力资源已经不再对普通用户开放,基本只保留给高等级或高额度充值的客户。普通开发者如果想使用算力资源,甚至需要每天早上9:30 准时去抢配额,而且还是限量供应。
这在几年前几乎是不可想象的事情。过去大家担心的是“算力太贵”,而现在很多时候变成了“有钱都未必能买到”。
至于这种情况到底是平台刻意控制配额,还是算力资源本身已经非常紧张,其实外界很难判断。但无论原因是什么,一个趋势已经非常明显:算力正在变成真正的稀缺资源。
不只是硬件在涨价,云算力的价格也在持续上升。
最近一个非常典型的例子就是Mac Studio Ultra M3(512GB 统一内存)。在二手市场上,这台机器的价格已经被炒到15 万一台。而如果是正常渠道购买,叠加员工优惠或者教育优惠,新机的价格大概在8–9 万左右。
也就是说,现在出现了一种非常反常的现象:
二手设备的价格反而比全新的机器还贵。
这背后其实反映的就是一个问题——真正需要算力的人已经开始囤设备了,市场供给跟不上需求。
类似的情况还发生在很多 AI 相关资源上。比如最近火爆的国产“大模型龙虾”生态版本,很多平台甚至需要邀请码才能进入,而且邀请码本身也变得一“码难求”。
从 GPU、服务器内存,到云算力额度,再到各种 AI 平台的使用资格,整个产业链都在传递同一个信号:
2026年AI 时代真正稀缺的,不再是模型,而是算力,马上就是电力
今天的分享就到这里。
找我交流与合作 空间计算与脑机接口系统开发
题图来自 Unsplash ,基于 CC0 协议, 如有侵权,请联系pmtalk123删除
“分享产品经理改变世界的点滴”
产品顾问| 产品咨询|培训合作
请添加微信PMxiaowanzi
最近我的原创
每日案例拆解库,AI等产品打卡群
我创建的产品设计打卡社群,加入后365天,每天体验一款APP。提升产品设计能力,同时有1300份体验报告帮助你找到竞品
在这里你可以随时查询到你想找的各类竞品行业APP,无须自己亲自下载就可以马上得到APP的一手产品优化、交互设计、功能描述信息。
从优化&建议、商业模式、运营、功能描述、交互设计、产品定位至少6个维度,体验一款应用。
平均1天1块钱,扫码购买即可加入
连续体验48款应用,通过后原路退回
报名后添加星球助理
PMTalk123
热门跟贴