打开网易新闻 查看精彩图片

深夜值班遇复杂用药不敢轻断,门诊快节奏需核指南……不少医生试着用通用 AI 找答案,虽能秒出结果,却始终不敢全然采信。

为什么通用AI不适合临床?

通用AI的“智能”是文本游戏,不是医学推理

当通用AI流畅生成“肝硬化患者用药建议”时,它只是在组合文字。临床需要的是每个建议都可追溯至指南与文献,而非“听起来有道理”的对话。

它的知识停留在过去,病情发生在现在

询问“心衰一线治疗方案”,它可能仍在使用2023年的信息。而就在这段时间,新药已上市,旧药增加了黑框警告。医疗,等不及“下一次训练更新”。

临床好用的AI,应该是什么样的?

它应该坚持循证——知识最新,回答有据,不懂就老实说“这个不在我的知识范围内”。

它应该像医生资深助手——理解急诊的争分夺秒,也理解门诊的审慎权衡,给出的是情境化方案。

它更应该是个安全员——用药前,完成剂量校验、相互作用筛查、禁忌症核对,把风险挡在门外。

于是,医学界出了个DrSeek:“靠谱循证AI临床决策助手

如果说通用AI是“什么都能聊的达人”,那DrSeek就是“只聊医疗,且句句有出处”的循证极客

我们做了这些“不够聪明,但很医学”的选择:

1、放弃全网爬取,死磕权威信源

我们的知识库没有维基百科,没有患者论坛,只有药品说明书、临床指南、核心文献、真实世界研究数据。

2、识别提问意图

构建覆盖药品、疾病、指南的医学知识图谱。你的每个问题,触发的是沿着医学逻辑链的推理,不是语言模型的概率游戏。

3、不做模糊建议,给明确答案

“可能”“或许”“一般来说”这些词在我们的系统里会被警告。我们给出有明确证据等级的建议,或者直接告诉你“现有证据不足”。

4、突出临床价值

你几乎不会感觉到“我在和AI对话”——你只是在查用药、看指南、算剂量、做决策。AI是底层支撑,不是噱头。

这就是为什么医生会说:

“用了DrSeek,我敢在深夜值班时处理复杂用药问题了。”

“终于不用在十几个 页面中 反复切换核对信息了。 ”

“带教时,我能告诉学生每个决策背后的循证依据,而不只是经验。”

为真诚热爱循证医学的医生而生

我们是不懂营销的医疗AI团队,我们把重点精力都放在了临床场景覆盖的完整性上循证的可靠性上。

现在邀请各位医生共创,成为“循证AI”的早期定义者。我们正在寻找这样的你:

  • 对循证医学有信仰,认为医疗决策应该基于证据而非习惯

  • 对技术保持开放,相信科技能让医疗更好,同时保持审慎的批判性

现在,限时免费体验

DrSeek医问答|你的循证AI临床决策助手

打开网易新闻 查看精彩图片

同时欢迎加入循证极客社区与同道中人分享AI辅助临床的真实案例。

*“医学界”力求所发表内容专业、可靠,但不对内容的准确性做出承诺;请相关各方在采用或以此作为决策依据时另行核查。