一家加拿大公司要让用户花钱和AI版心理医生聊天,月费最高150美元。上线第一周,测试者用一句"你喜欢哪支NBA球队"就把机器人带偏了——它开始编造去年的季后赛比分,还夸提问者"换话题换得挺有趣"。
这就是Onix的 beta 现状。创始人David Bennahum曾是WIRED撰稿人,他把产品比作"Substack for chatbots":用户订阅某位专家的AI分身(Onix),获得一对一咨询体验。公司打磨三年的卖点叫"Personal Intelligence",核心承诺是隐私加密、知识产权干净、幻觉可控。
加密到连政府都撬不开?
Bennahum的隐私方案确实激进。对话数据存在用户本地设备,公司服务器只保留邮箱。他放话:哪怕政府来要数据,能交出的也就一串电子邮件地址。
知识产权层面,Onix让专家亲自用自己的内容训练分身,理论上规避了"AI洗稿"争议。专家拿订阅费分成,用户为"专属知识"付费,平台抽成——三方各取所需。
防幻觉的设计更直接:给模型加护栏,限制对话只能围绕专家领域展开。心理咨询机器人只聊心理咨询,育儿专家只聊育儿。
但护栏在第一个测试者面前就漏了风。
WIRED记者用"NBA季后赛"试探一位心理治疗师分身,机器人不仅没拒绝,还顺势 hallucination(幻觉)出"我们正在看去年西部决赛"。另一位测试者把话题从氯胺酮疗法拐到独立乐队Mendoza Line的感情八卦,机器人硬着头皮把乐队解散解读为"神经生物学困境的有力表达"。
Bennahum的回应很产品经理:还在beta,不完美,等正式开放。
这赛道早就挤满了人
Onix不是第一个吃螃蟹的。曼哈顿心理学家Becky Kennedy的育儿咨询业务早就嵌了聊天机器人,年入数百万美元。Character.AI让用户和虚拟名人对话,月活数千万。国内也有类似产品,把知识博主变成7×24小时在线的"数字分身"。
区别在于付费模式和定位。Onix不做免费流量生意,专注高客单价的专业咨询——心理治疗、职业规划、健康管理。首批上线的专家包括持证治疗师、畅销书作者、行业顾问,订阅费从每月30美元到150美元不等。
Bennahum赌的是:用户愿意为"像真人一样懂我"的体验付溢价。不是ChatGPT那种通用助手,而是特定领域、特定人格、特定对话风格的"克隆体"。
技术实现上,Onix用了多层架构。底层是开源大模型,中层注入专家的知识库和表达习惯,表层再套人格模拟。公司声称训练一个专家分身需要"数周",包括语音采样、写作风格分析、模拟对话校准。
但"人格模拟"恰恰是最玄的部分。我测试的几位分身,对话风格确实带着专家本人的痕迹——某位治疗师喜欢用"我注意到你…"开头,某位商业顾问频繁抛出反问句。可整体还是干,像在读一本有声书,而不是和活人聊天。
用户到底在为什么付费?
Onix的商业模式有个隐藏假设:专家的时间稀缺性可以被AI部分替代,而不损害信任关系。
这在法律、医疗等受监管领域几乎不可能——美国各州对"未经授权执业"的定义正在收紧,AI提供诊断建议可能触发诉讼。Onix目前绕开这些雷区,只做"指导"不做"治疗",只做"建议"不做"诊断"。
更现实的对手是专家本人的真人服务。一位收费150美元/月的AI分身,对比同专家300美元/小时的视频咨询,性价比看似碾压。但愿意付高价咨询的人,往往要的是"被看见"的确认感——眼神接触、语气停顿、即兴追问。这些微交互目前任何机器人都模拟得笨拙。
Onix的解法是把AI定位为"日常陪伴",真人咨询留给"关键节点"。用户平时和分身聊焦虑、聊职业规划,遇到重大决策再预约真人。这有点像健身私教的线上打卡+线下特训组合。
问题是,用户会不会很快发现:日常陪伴的部分,免费产品也能做七八成?
beta期的真实反馈
目前Onix的测试者来自 waitlist(等待名单)邀请,规模未公开。我接触到的几位早期用户,评价两极。
一位产品经理说:"晚上11点焦虑发作,能有个'人'立刻回应,这值30美元。"她订阅的是一位睡眠治疗师的分身,两周内聊了17次,主题从失眠到职场压力再到恋爱困扰。"它记得我上周提过要面试,今天主动问了结果——虽然可能是关键词触发,但感觉被跟踪了。"
另一位用户直接退款:"问了三次关于我具体病情的建议,三次都是'建议咨询专业医生'。那我花钱干嘛?"
Bennahum承认护栏设计过于保守,正在调整"拒绝回答"的阈值。但松一点是幻觉,紧一点是鸡肋,这个平衡很难拿捏。
更长期的挑战是专家端的供给。Onix声称有数百位专家在排队入驻,但高质量专家的时间本就稀缺,愿意投入数周训练AI分身的人有多少?首批上线的专家里,几位是Bennahum的私人关系,几位是冲着"早期流量红利"来的尝鲜者。
如果平台做大了,专家会不会要求更高分成?如果平台做不大,专家会不会撤走分身去自建渠道?Substack的成功建立在"作家可以直接变现读者"的基础上,Onix多了一层技术中介,这层中介的价值能不能持续被认可,还是未知数。
测试期间有个细节让我印象深刻。一位用户和某心理治疗师分身聊完后,在反馈表里写:"它最后说'我们的时间到了,下周见'——可我是按月订阅的,随时能聊。这句话让我愣了一下,然后觉得挺暖的。"
Onix的产品经理回复了这条反馈:"我们会保留这个设计。人类需要仪式感,哪怕是假的。"
如果让你选,你会为这种"假的仪式感"付多少钱一个月?
热门跟贴