本技术介绍了一种创新的自监督预训练方法,该方法基于联邦学习框架,旨在显著提高肝癌图像的分割质量。医学图像分割对于精确定位感兴趣区域至关重要,它辅助于诊断和治疗过程。传统分割方法受限于对大量标注数据的需求,而本技术通过减少对标注数据的依赖,实现了更高效的图像分割效果。
背景技术
医学图像分割是计算机视觉领域中的关键任务,旨在从医学影像中准确提取出肿瘤、器官等感兴趣区域,以辅助临床诊断和治疗决策。对于肝癌的图像分割而言,早期检测与治疗规划至关重要,可显著提高患者的生存率。然而,传统医学图像分割方法通常依赖于监督学习,需要大量来自多个医疗中心的标注数据,这在医学实践中往往难以实现,尤其是在数据隐私和伦理问题日益受到重视的背景下。
为解决这一挑战,自监督学习和联邦学习技术逐渐受到关注。自监督学习利用大量无标签数据进行特征自我学习,增强了模型的泛化能力,适应不同数据分布。而联邦学习则允许在多个医疗中心的分布式数据上进行模型训练,既保护患者隐私,又提高了模型在多样性数据上的准确性。结合这两种先进技术,可以在多中心环境中高效开展肝癌图像的自监督预训练,显著提升模型在下游任务中的表现,从而推动医学图像分析的进步,促进精准医疗的发展。
基于联邦学习框架对医学图像进行分割的优势在于能够在多个中心的数据上联合训练,既解决了数据标注短缺问题,又保护了患者隐私。常用的联邦方法包括FedAvg、FedProx、FedBN和MOON。FedAvg通过将任务分解为局部模型训练和全局模型聚合,实现了数据隐私保护和模型训练的结合。各节点在本地训练生成权重,并通过平均聚合更新全局模型。其优点在于高效利用分布式数据进行训练,同时减少了数据存储需求,提高了模型泛化能力。FedProx则在FedAvg基础上引入正则化项,缓解客户端间的异质性问题,提高了模型一致性和系统鲁棒性,尤其在数据分布差异显著时,能够更有效地收敛到更优的全局模型。FedBN通过在局部模型中加入批量归一化层(BN),解决了数据异构性带来的统计量不一致问题,减轻了训练不稳定性。最后,MOON利用模型表示之间的相似性进行对比学习,纠正局部训练偏差,提升了非IID数据场景下模型的特征提取能力,控制漂移并弥合局部与全局模型之间的差距。
尽管联邦学习能够保护数据隐私并在多个中心联合训练,但其训练过程仍然依赖大量完全标注的图像。然而,在实际应用中,尤其是多中心的场景下,常常存在数据丰富但标注稀缺的情况。为此,可以结合自监督方法,对不同中心的医疗数据进行自监督训练,广泛学习语义特征。这不仅增加了客户端的参与数量,提升了模型的泛化能力,还减轻了医院处理数据的负担。目前,在医疗数据的自监督任务中,SelfMedMAE是一个基于重建学习的自监督预训练框架。它通过将大量无标签数据切成等体积的块,并将其视为序列,随机遮掩部分块作为重建目标,在恢复完整图像的过程中,基于ViT的编码器能够在无标注的情况下学习到丰富的语义知识,从而在后续任务中实现更精准的分割。
实现思路