最近“模型即产品”的呼声很高。

从Deep Research到Claude 3.7再到最近的GPT 4o,“消灭你,与你何干”的戏码,似乎一次次在上演。

然而,在处理日常很具体的问题时, 从模型到痛点,中间还总是差了一公里。

哪怕大模型99%都完成得很好,想找出那1%的错误,可能就要花掉我不亚于从头再来的时间。

从通用强大的模型,到真实琐碎的需求,中间巨大的Gap,就是从Perplexity到Monica、Liblib再到Manus的巨大空间。

体验了那么多产品,“问小白”是最近让我惊喜的玩家。

幻觉问题,谁能兜底?

AI圈产品更新迭代速度很快,新玩家、不太被人熟知的名字,可能在短短几个月就会有颠覆性的体验升级。

说实话,我第一次知道“问小白”的时候,觉得只是一个面向AI小白的工具。

虽然有普适价值,但可能更 适合我爸妈,替代性也较强。

但最近深入体验了最新版本之后,不得不承认,日常让我有粘性的不一定是Deep Research、4o这些说起来fancy的,还真可以是问小白。

比如DeepSeek在AI学术问题上常出现的幻觉问题、数字不准,大致看起来不影响,真的出问题就很致命。

还有GPT等很多大模型的通病,比如意图识别很难一次到位、上下文多轮连续性失真等问题。

问小白在这些问题的基础上,相当于多做了一层过滤和检查。

比如我想写一份关于AI Agent的研究报告:

问小白除了常规的信息检索、整合分析,多做一步的,是对工作流的把握和对信息的二次验证。

比如Agent相关研究报告里,问小白的市场规模预估、复合增长率等数值,非常精确,而且有理有据。经过我的校验比对发现也是准确无误的。

每一个数据,都是真实可考的数据,就让我对结果能更有信心。

并且,问小白还给了我PPT的一页示例,从单纯的文字工作,在主动引导我朝着更丰富、更图文并茂的研报去提供方便。

多想的这一步、两步,往往才是更有含金量的,在控制幻觉的前提下进一步拓展可用性。

相比原版DeepSeek的通用性,问小白就像是更懂我的“贴心版”,离我的需求更近一点,节省的时间就多出很多。

比如分享的小细节,很多朋友用DeepSeek就只能复制粘贴,不利于整合成个人知识库。

问小白就能把DeepSeek最新版本的优质回答,变成链接一键分享,让朋友也能直接看到问答和多轮的过程。

RAG,让信息更精准

越深度使用越发现,问小白可能是最早能够体验到 DeepSeek V3-0324 最佳效果的地方。

问小白DeepSeek V3-0324已经上线,MoE架构,6850亿参数,激活参数约370亿。更顺畅、更没有延迟。

DeepSeek的 R1 和 V3 问小白都是最先接入的,深度、速度都能满足。

但效果有时候还更准确是怎么回事呢?

原来是在DeepSeek V3-0324 基础上,结合了问小白自研的 RAG 增强,这才使得搜索更准,速度更快,答案直出更敏捷。

大模型 + 超强 RAG 能力,完美替代搜索软件,AI 时代,这才是新的搜索入口。

问小白AI搜索,包括日常搜索(即时获取最新信息)、和专业搜索(深度检索更多资料)。

相比日常搜索,专业搜索会拆解更多搜索角度阅读更多网页,信息网更深更广,可以说非常细节了。

Chinese SimpleQA 评测显示,问小白 DeepSeek R1 以91.60%的F-score 成绩显著领先GPT-4o及国内主流RAG解决方案,成为中文RAG技术标杆,为用户提供更加准确、及时、可靠的AI问答体验。

信息多了好,还是深了好?

很明显的一个特点是,问小白每次会请求 3-5 个搜索引擎响应,日常搜索差不多索引100多个网页,专业搜索最高可达 200+网页。

同时还有包括多模态、多领域的高质量知识库内容,每次搜索有 20-50 个领域知识库加持。

关键读取还很快,答案出得比我看标题的速度还快,实际生产力场景我就是在被推着走。

虽然很多时候多也未必好,但在“全”的场景上,问小白已经有了量变作为差异。

而且一些专业的冷门的问题也可以覆盖。

比如我让对比RAG和Embedding,想要有论文和海外学术的资料支撑:

问小白就像一个眼里更有活的超级助手,看一步、想三步。

除了论文,还有基于论文的延伸分析和更多场景给到我,一键生成ppt这样的技能肯定不在话下。

本身在RAG框架下,问小白做了很细致的系统设计,关键词捕捉、意图分别、映射关系,拆的更准,所以结果更优。

而有惊喜的是,打通了内容后链路更长的下一步。

表面上我是想研究Agent或者RAG,但是不是用PPT或者网页呈现更能满足我的需求呢?

问小白就替我想到了,直接在结尾可以一键转成精美的网页。

模型的竞争逐渐寡头化,但对需求的理解真还有待深挖。

比写文本更进一步的,是把东西做出来。

对于大部分普通用户或者兴趣玩家,而更顺畅的代码辅助工具,不一定是Cursor,可能就是问小白这样更加线性又自然的载体。

还有新的内测功能,“小白研报”,看示例是不亚于Manus等Agent类产品的效果。

比如下面这个雷军与小米的成功方法论拆解:

https://www.wenxiaobai.com/share/deep-research?url=https://wy-static.wenxiaobai.com/deep-research/f16499e6-8131-42ca-aadd-2f527f9633ee.html

基于研报一键生成的网页,也非常简洁漂亮。

我自己在做产品、看论文、写东西的时候,甚至也逐渐习惯了网页化阅读,纯文字可能不够清晰,顺手做个网站出来甚至加一些互动,对我获取信息的效率还能再提高。

元石大模型

到这一步,其实已经觉得问小白是一个不错的AI应用产品了。

但还不够。

随着产品和模型边界的模糊,一端向用户真实场景和需求延伸,另一端的触角,依然需要向模型深挖。

问小白自主研发的"元石大模型"已通过备案,作为国内最早采用MOE架构的厂商,其开源的轻量级大模型 MetaStone-R1-7B在同级别模型中实现了数学、代码两个类别的 SOTA 效果。

MoE(混合专家模型)架构下,最知名的模型产品还得是DeepSeek。问小白可以说在架构设计上与DeepSeek有很多相通的底层逻辑。

这也是“元石大模型 + DeepSeekR1/V3”天然更契合、效果更好的原因。

可以说,问小白 = 最一流的大模型 + 最一流的检索交叉验证能力——因为有了强大的双模型驱动,以及高分的RAG搜索能力,两相叠加提供了更强有力的技术后盾。

技术储备、自研能力、模型探索,这些才是很多优秀表现背后更基石的东西。

不仅如此,问小白研发团队,还已经将很多最新的研究成果开源。

比如开源 MetaStone-L1-7B 模型, 在同级别模型中实现了数学、代码效果的差异化优势,用 7B 的体量“以小博大”,在性能上超过 Claude-3.5-Sonnet-1022、GPT4o-0513,以及 Deepseek R1 的同体积蒸馏模型。

「多模态、搜索、推荐」这三大核心技术栈,能同时具备技术能力的团队极少,而问小白背后的元石科技隐隐有了一些黑马的势头。

虽然问小白的产品流量已经悄悄到达了榜单前列,但团队和公司依然很低调,不会用“饥饿营销”的方式渲染紧张感。

反而这是一款让我觉得轻松和舒服的产品,不会焦虑不会fomo,随着踏踏实实的底层技术一起越来越好,也让生活和工作更轻松、更美好。

何妨试一试呢?

也许就会打开新的天地!