让AI找病灶,医学影像诊断有望告别“手工标注时代”
文库划重点:研究人员让AFLoc模型同时学习两类信息,一类是医学影像本身,比如胸片、眼底照片或病理切片,另一类是医生撰写的临床报告...除病灶定位外,AFLoc还展现出强大的疾病诊断能力。在胸部X光、眼底和组织病理图像的零样本分类任务中,其整体表现均优于现有方法。
中国科学院深圳先进技术研究院研究员王珊珊团队与合作者提出了一种名为AFLoc的人工智能(AI)模型,不需要医生提前标注病灶,就能自动在医学影像中“找病灶”。相关研究成果1月6日发表于《自然-生物医学工程》。
在医院里,一张医学影像往往隐藏着大量关键信息。但以前要让AI看懂这些影像,离不开以医生手动“圈出”的病灶作为训练数据。这不仅耗费大量时间和精力,还成为医学影像AI难以大规模推广的重要原因。而AFLoc模型则更像是在“看图读报告”的过程中,自己学会理解影像含义。
研究人员让AFLoc模型同时学习两类信息,一类是医学影像本身,比如胸片、眼底照片或病理切片,另一类是医生撰写的临床报告。通过反复“对照学习”,AFLoc模型逐渐明白临床报告中提到的疾病描述,对应影像中哪些区域。久而久之,即使没有人工标注,它也能在影像中准确标出最可能的病灶位置。
研究团队在胸部X光、眼底影像和组织病理图像3种典型医学影像模态上对AFLoc进行了系统验证,结果显示模型性能优异。在胸片实验中,AFLoc在覆盖肺炎、胸腔积液、气胸等34种常见胸部疾病,涉及8个主流公开数据集的测试中,在多项病灶定位指标上优于现有方法,并在多个病种中超过人类专家的水平。在眼底影像和病理图像任务中,AFLoc同样展现出稳定的病灶定位能力,定位精度优于当前主流模型。
除病灶定位外,AFLoc还展现出强大的疾病诊断能力。在胸部X光、眼底和组织病理图像的零样本分类任务中,其整体表现均优于现有方法。尤其在眼底视网膜病变诊断中,AFLoc的零样本分类性能甚至超越了部分依赖人工标注数据微调的模型。
“这一模型有效减少了传统深度学习方法对大规模人工标注数据的依赖,显著提升了医学影像数据的利用效率与模型的泛化能力,为临床影像AI从‘依赖手工标注’迈向‘自监督学习’提供了可行路径,也为构建更智能、更具通用性的医学人工智能系统提供了新的技术范式。”王珊珊表示。
未来,研究团队将进一步推动AFLoc在多中心真实临床场景中的验证与应用,加速其向临床辅助诊断系统转化落地。
相关论文信息:https://doi.org/10.1038/s41551-025-01574-7
《中国科学报》 (2026-01-09 第1版 要闻)
(记者刁雯蕙)
哈希力量文库选录,手机端省略本文网址
