医疗AI的训练成本正在断崖式下跌。
传统思路是用海量病历喂模型,但新研究换了个玩法:只给大模型看少量病例——少则32例,多则256例——它就能学会诊断新病种。这叫"上下文学习",模型从提示里的例子直接找规律,不用改参数。
打开网易新闻 查看精彩图片
测试覆盖了57个临床数据集,涵盖精神病学、肿瘤科等科室。结果很一致:给的例子越多,准确率越高。256例时,表现接近专门微调过的模型。
打开网易新闻 查看精彩图片
关键发现是"规模效应"。70亿参数的模型基本没用,但700亿参数的出现质变。这说明大模型的医疗能力不只是记忆,而是真的在样本里抽象出了诊断逻辑。
这对罕见病是好消息。全球7000多种罕见病,多数缺乏大规模数据,传统AI束手无策。现在只需整理几十份典型病例,就能快速搭建专科辅助诊断工具。
打开网易新闻 查看精彩图片
不过研究者也划了红线:这不能替代医生,只是决策支持。临床场景复杂,模型的"学习"边界还需更多验证。
热门跟贴