最近“模型即产品”的呼声很高。
从Deep Research到Claude 3.7再到最近的GPT 4o,“消灭你,与你何干”的戏码,似乎一次次在上演。
然而,在处理日常很具体的问题时, 从模型到痛点,中间还总是差了一公里。
哪怕大模型99%都完成得很好,想找出那1%的错误,可能就要花掉我不亚于从头再来的时间。
从通用强大的模型,到真实琐碎的需求,中间巨大的Gap,就是从Perplexity到Monica、Liblib再到Manus的巨大空间。
体验了那么多产品,“问小白”是最近让我惊喜的玩家。
幻觉问题,谁能兜底?
AI圈产品更新迭代速度很快,新玩家、不太被人熟知的名字,可能在短短几个月就会有颠覆性的体验升级。
说实话,我第一次知道“问小白”的时候,觉得只是一个面向AI小白的工具。
虽然有普适价值,但可能更 适合我爸妈,替代性也较强。
但最近深入体验了最新版本之后,不得不承认,日常让我有粘性的不一定是Deep Research、4o这些说起来fancy的,还真可以是问小白。
比如DeepSeek在AI学术问题上常出现的幻觉问题、数字不准,大致看起来不影响,真的出问题就很致命。
还有GPT等很多大模型的通病,比如意图识别很难一次到位、上下文多轮连续性失真等问题。
问小白在这些问题的基础上,相当于多做了一层过滤和检查。
比如我想写一份关于AI Agent的研究报告:
问小白除了常规的信息检索、整合分析,多做一步的,是对工作流的把握和对信息的二次验证。
比如Agent相关研究报告里,问小白的市场规模预估、复合增长率等数值,非常精确,而且有理有据。经过我的校验比对发现也是准确无误的。
每一个数据,都是真实可考的数据,就让我对结果能更有信心。
并且,问小白还给了我PPT的一页示例,从单纯的文字工作,在主动引导我朝着更丰富、更图文并茂的研报去提供方便。
多想的这一步、两步,往往才是更有含金量的,在控制幻觉的前提下进一步拓展可用性。
相比原版DeepSeek的通用性,问小白就像是更懂我的“贴心版”,离我的需求更近一点,节省的时间就多出很多。
比如分享的小细节,很多朋友用DeepSeek就只能复制粘贴,不利于整合成个人知识库。
问小白就能把DeepSeek最新版本的优质回答,变成链接一键分享,让朋友也能直接看到问答和多轮的过程。
RAG,让信息更精准
越深度使用越发现,问小白可能是最早能够体验到 DeepSeek V3-0324 最佳效果的地方。
问小白DeepSeek V3-0324已经上线,MoE架构,6850亿参数,激活参数约370亿。更顺畅、更没有延迟。
DeepSeek的 R1 和 V3 问小白都是最先接入的,深度、速度都能满足。
但效果有时候还更准确是怎么回事呢?
原来是在DeepSeek V3-0324 基础上,结合了问小白自研的 RAG 增强,这才使得搜索更准,速度更快,答案直出更敏捷。
大模型 + 超强 RAG 能力,完美替代搜索软件,AI 时代,这才是新的搜索入口。
问小白AI搜索,包括日常搜索(即时获取最新信息)、和专业搜索(深度检索更多资料)。
相比日常搜索,专业搜索会拆解更多搜索角度,阅读更多网页,信息网更深更广,可以说非常细节了。
Chinese SimpleQA 评测显示,问小白 DeepSeek R1 以91.60%的F-score 成绩显著领先GPT-4o及国内主流RAG解决方案,成为中文RAG技术标杆,为用户提供更加准确、及时、可靠的AI问答体验。
信息多了好,还是深了好?
很明显的一个特点是,问小白每次会请求 3-5 个搜索引擎响应,日常搜索差不多索引100多个网页,专业搜索最高可达 200+网页。
同时还有包括多模态、多领域的高质量知识库内容,每次搜索有 20-50 个领域知识库加持。
关键读取还很快,答案出得比我看标题的速度还快,实际生产力场景我就是在被推着走。
虽然很多时候多也未必好,但在“全”的场景上,问小白已经有了量变作为差异。
而且一些专业的冷门的问题也可以覆盖。
比如我让对比RAG和Embedding,想要有论文和海外学术的资料支撑:
问小白就像一个眼里更有活的超级助手,看一步、想三步。
除了论文,还有基于论文的延伸分析和更多场景给到我,一键生成ppt这样的技能肯定不在话下。
本身在RAG框架下,问小白做了很细致的系统设计,关键词捕捉、意图分别、映射关系,拆的更准,所以结果更优。
而有惊喜的是,打通了内容后链路更长的下一步。
表面上我是想研究Agent或者RAG,但是不是用PPT或者网页呈现更能满足我的需求呢?
问小白就替我想到了,直接在结尾可以一键转成精美的网页。
模型的竞争逐渐寡头化,但对需求的理解真还有待深挖。
比写文本更进一步的,是把东西做出来。
对于大部分普通用户或者兴趣玩家,而更顺畅的代码辅助工具,不一定是Cursor,可能就是问小白这样更加线性又自然的载体。
还有新的内测功能,“小白研报”,看示例是不亚于Manus等Agent类产品的效果。
比如下面这个雷军与小米的成功方法论拆解:
https://www.wenxiaobai.com/share/deep-research?url=https://wy-static.wenxiaobai.com/deep-research/f16499e6-8131-42ca-aadd-2f527f9633ee.html
基于研报一键生成的网页,也非常简洁漂亮。
我自己在做产品、看论文、写东西的时候,甚至也逐渐习惯了网页化阅读,纯文字可能不够清晰,顺手做个网站出来甚至加一些互动,对我获取信息的效率还能再提高。
元石大模型
到这一步,其实已经觉得问小白是一个不错的AI应用产品了。
但还不够。
随着产品和模型边界的模糊,一端向用户真实场景和需求延伸,另一端的触角,依然需要向模型深挖。
问小白自主研发的"元石大模型"已通过备案,作为国内最早采用MOE架构的厂商,其开源的轻量级大模型 MetaStone-R1-7B在同级别模型中实现了数学、代码两个类别的 SOTA 效果。
MoE(混合专家模型)架构下,最知名的模型产品还得是DeepSeek。问小白可以说在架构设计上与DeepSeek有很多相通的底层逻辑。
这也是“元石大模型 + DeepSeekR1/V3”天然更契合、效果更好的原因。
可以说,问小白 = 最一流的大模型 + 最一流的检索交叉验证能力——因为有了强大的双模型驱动,以及高分的RAG搜索能力,两相叠加提供了更强有力的技术后盾。
技术储备、自研能力、模型探索,这些才是很多优秀表现背后更基石的东西。
不仅如此,问小白研发团队,还已经将很多最新的研究成果开源。
比如开源 MetaStone-L1-7B 模型, 在同级别模型中实现了数学、代码效果的差异化优势,用 7B 的体量“以小博大”,在性能上超过 Claude-3.5-Sonnet-1022、GPT4o-0513,以及 Deepseek R1 的同体积蒸馏模型。
「多模态、搜索、推荐」这三大核心技术栈,能同时具备技术能力的团队极少,而问小白背后的元石科技隐隐有了一些黑马的势头。
虽然问小白的产品流量已经悄悄到达了榜单前列,但团队和公司依然很低调,不会用“饥饿营销”的方式渲染紧张感。
反而这是一款让我觉得轻松和舒服的产品,不会焦虑不会fomo,随着踏踏实实的底层技术一起越来越好,也让生活和工作更轻松、更美好。
何妨试一试呢?
也许就会打开新的天地!
热门跟贴