打开网易新闻 查看精彩图片

全球每年新发癌症病例约 1930 万,病理检查是癌症确诊的 “金标准”,但全球范围内病理医生严重短缺,发展中国家和资源匮乏地区的供需矛盾尤为突出。人工智能为自动化病理诊断带来新可能,却面临两大核心难题:一是训练需海量标注数据,二是缺乏通用性。即便现有病理基础模型实现了泛癌症特征提取,落地应用仍需大量微调训练和专家资源,难以在资源匮乏地区推广。在此背景下,开发一款无需训练、仅靠少量样本就能实现多癌种识别的通用系统,成为病理 AI 领域的迫切需求。

近日,香港科技大学教授团队、广东省人民医院教授团队联合张康教授、哈佛医学院余坤兴教授等 , 在 Nature Cancer 上发表了文章PRET is a few-shot system for pan-cancer recognition without example training提出全新的 PRET 泛癌种识别系统,为多癌种病理诊断打造了 “即插即用” 的全新解决方案。该系统的核心创新,是将自然语言处理领域的上下文学习概念,首次引入病理图像分析领域。与传统 AI 方法不同,PRET 无需任何参数微调,仅在推理阶段加入 1–8 张标注切片作为 “视觉上下文”,就能完成学习与识别。其架构包含特征提取器、上下文标注器等六大核心模块,可一站式支持癌症筛查、肿瘤分型、肿瘤分割、淋巴结转移检测等多种病理诊断任务。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

图1 : PRET是一个面向多任务的统一框架

1. 大规模跨中心评估

为验证 PRET 的性能,研究团队在 23 个国际基准数据集上开展了大规模跨中心评估,数据集涵盖中、美、荷多国医院的 4484 张全切片图像(约 1.24 亿个图像块),涉及 18 种癌症类型、9 个器官组织。评估结果显示,PRET 在 23 个基准任务中的 20 个上表现超越现有方法,15 个基准任务的 AUC 值超 97%,在 CAMELYON16 数据集上性能提升幅度更是达 36.76%;其中结直肠癌筛查 AUC 值达 100%,食管鳞癌肿瘤分割 AUC 值达 99.54%,展现出优异的基础诊断能力。

打开网易新闻 查看精彩图片

图2 : PRET 支持多器官、多数据集、多中心和多任务

2. 临床级淋巴结转移检测

针对 临床级淋巴结转移检测这一关键任务 , 在 CAMELYON16 数据集上,仅使用 8 张切片样本,PRET 就实现了临床级诊断效果。在 0.9875 的相同特异性条件下,其灵敏度较病理医生常规诊断分别提升 42.86%、36.74%、26.53% 和 16.33%;五次重复实验中,AUC 值稳定在 0.9834–0.9901 之间,平均值达 0.9871,而 11 位病理医生 在常规时间限制下 的平均 AUC 值仅为 0.810。更值得关注的是,在数据量减少约 30 倍 时, PRET 的性能 超越了使用 243 张切片训练的 TransMIL、CLAM 等传统多样本方法。

3. 灵活的视觉提示系统

PRET 还设计了灵活的视觉提示系统,支持切片标签、边界框、粗略 的 掩码 和精准的 掩码四种提示类型,适配不同的标注 成本 。研究发现,不同病理任务适配不同提示类型,甲状腺乳头状癌、食管鳞癌等小肿瘤适合精细提示,结直肠癌、淋巴瘤等大肿瘤仅用切片标签,就能取得理想诊断效果。

4. 跨种族与欠发达地区的强泛化能力

在泛化能力上,PRET 同样表现突出。跨种族泛化实验中,基于 TCGA NSCLC 数据集的 8-shot 设置下,不同种族间的 AUC 最大差异仅 1.32%。针对资源匮乏地区的适用性验证中,研究团队选取中国的青海省开展实验,PRET 在当地甲状腺乳头状癌基准上,仅用 1 个样本就取得 98.72% 的筛查 AUC 值和 89.85% 的 Dice 分割得分,较现有 基线 方法提升 9.85%。

总结与展望

PRET实现了病理AI领域的范式突破,其核心优势可概括为五个方面: (1)低数据成本 ,无需大规模标注数据集; (2)单一泛癌模型 ,一个模型覆盖多种癌症和任务; (3)无需训练 ,新任务可直接使用; (4)强泛化性 ,跨种族、跨医院表现稳健; (5)高灵活性 ,可与多种病理基础模型无缝集成。

展望未来,研究团队指出了多个发展方向:进一步优化切片和样本质量,持续提升诊断性能;将系统应用范围拓展至突变预测、预后分析等新的病理任务;结合大语言模型的能力,挖掘 PRET 视觉上下文学习的更多潜力,开辟病理诊断 AI 的全新应用场景。

PRET为全球病理AI的普惠化和公平化发展铺平了道路,尤其有望为医疗资源匮乏地区、少数群体带来高质量的病理诊断支持,推动癌症诊断的可及性变革。

该文章的 通讯作者 为: 李 小 萌(香港科技大学)、张 庆 玲(广东省人民医院)、张康 ; 共同第一作者 为 : 李 艺 、宁梓妤 。

代码:https://github.com/xmed-lab/PRET

数据:https://huggingface.co/datasets/yili7eli/PRET

原文链接:https://www.nature.com/articles/s43018-026-01141-2

制版人: 十一

学术合作组织

(*排名不分先后)

打开网易新闻 查看精彩图片


战略合作伙伴

(*排名不分先后)

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

转载须知


【非原创文章】本文著作权归文章作者所有,欢迎个人转发分享,未经作者的允许禁止转载,作者拥有所有法定权利,违者必究。

BioArt

Med

Plants

人才招聘

近期直播推荐

打开网易新闻 查看精彩图片

点击主页推荐活动

关注更多最新活动!

打开网易新闻 查看精彩图片