Translation Consistent Semi-supervised Segmentation for 3D Medical Images 阅读

news/2024/9/27 22:10:42 标签: 深度学习, 人工智能, 机器学习

code: yyliu01/TraCoCo: [TMI'24] Translation Consistent Semi-supervised Segmentation for 3D Medical Images (github.com)

paper:Translation Consistent Semi-supervised Segmentation for 3D Medical Images (arxiv.org)

Abstract

三维医学图像分割方法已经取得了成功,但由于获得这种注释的成本很高,因此需要解决对大量体素级注释数据的依赖。半监督学习(SSL)通过使用大型未标记数据集和小型标记数据集训练模型来解决这个问题。最成功的SSL方法是基于一致性学习,它最小化了从未标记数据的受干扰视图获得的模型响应之间的距离。这些扰动通常使视图之间的空间输入上下文保持相当一致,这可能导致模型从空间输入上下文而不是前景对象中学习分割模式。在本文中,我们引入了翻译一致性协同训练(TraCoCo),这是一种一致性学习SSL方法,它通过改变输入数据视图的空间输入上下文来干扰输入数据视图,使模型能够从前景对象中学习分割模式。此外,我们提出用一种新的可信区域交叉熵(CRC)损失代替常用的均方误差(MSE)半监督损失,提高了训练收敛性,并保持了对共同训练伪标记错误的鲁棒性。我们还将CutMix增强功能扩展到3D SSL,以进一步提高通用性。我们的TraCoCo显示了具有不同主干的左心房(LA)、胰腺ct(胰腺)和脑肿瘤分割(BRaTS19)数据集的最新结果。我们的代码、培训日志和检查点可在 https://github.com/yyliu01/TraCoCo.

1. Introducetion

三维医学图像分割神经网络方法的训练需要大量的体素标注样本集。这些集是通过费力且昂贵的逐片标注过程获得的,因此人们寻求基于小标记集训练方法的替代方法。一个例子是半监督学习(SSL),它依赖于一个大的未标记集和一个小的标记集来训练模型,一个特别有效的SSL方法是基于一致性学习,它最小化了从未标记数据的不同视图获得的模型响应之间的距离(Ouali等人,2020;Chen et al, 2021)。一致性学习方法的不同观点可以通过数据增强(Berthelot等人,2019)或从不同初始化网络的输出中获得(Tarvainen和Valpola, 2017;Chen等,2021;Ke et al, 2020)。Mean teacher (MT) (Tarvainen and Valpola, 2017;Yu et al ., 2019;Hang等,2020;Wang等,2021;Liu et al ., 2021)将这两种扰动结合起来,并在训练期间平均网络参数,为未标记的数据生成可靠的伪标签。引入了各种3D医学图像分割方案来提高师生方法的泛化性,包括不确定性引导阈值(Yu et al ., 2019;Hang et al, 2020)或多任务辅助(Wang et al, 2021;Luo et al ., 2021a)。然而,师生方案的特定领域转移(Berthelot et al, 2019)会导致两个网络收敛到相似的局部最小值,从而降低网络扰动的有效性。此外,一些硬医学分割案例被教师和学生模型一致地分割成相似的部分,这可能导致训练过程中的确认偏差。这个问题促使引入了共同训练框架,该框架涉及两个模型,这两个模型使用不同的参数初始化,并通过在训练阶段为未标记的数据生成伪标签来相互监督。与师生模型相比,这两个独立模型收敛到相同局部极小值的机会更小。最近的研究方法(Chen et al ., 2021;Ke et al ., 2020)表明,通过两个独立网络之间的交叉监督,协同训练提供了有效的一致性正则化。
即使成功,上述方法也可能无意中从训练数据的空间输入上下文而不是从待分割的前景对象中学习分割模式,这可能会为未标记的数据产生令人不满意的伪标签。例如,模型可以从背景模式中记忆分割特征,即使在传入数据显示变化时也可以进行一致的预测。这个问题在3D医疗数据中更为明显,训练样本数量较少,输入数据维数较大,会增加空间输入上下文与分割结果之间的依赖性,导致泛化效果较差。Lai等人(2021)通过多层感知器(MLP)提取中间嵌入,并通过对比学习对不同输入上下文施加一致性约束。然而,由于潜在的错误预测和缺乏网络扰动(我们在第4.4节中展示了这方面的结果),这种隐式约束对于3D医学图像是不令人满意的,这对提高模型的泛化能力至关重要。
事实上,我们认为网络扰动结合空间输入上下文的扰动形成未标记样本的不同视图对于减少空间输入上下文与分割预测之间的依赖性非常重要。
本文提出了翻译一致性协同训练(TraCoCo)算法。TraCoCo在输入数据的翻译视图之间的相交区域内强制分割协议,其中应用了额外的对数似然正则化来平衡分割的视觉对象和背景体素的重要性。对于半监督一致性损失,我们提出了可信区域二元交叉熵(CRC)来约束基于模型预测为正的区域和模型预测为负的区域的学习的跨模型预测(Kim等人,2019;Chen et al ., 2020;Rizve等人,2021),其目标是提高训练收敛性,同时保持对伪标签错误的鲁棒性。此外,当标注的训练集很小(Chen et al ., 2


http://www.niftyadmin.cn/n/5679668.html

相关文章

端口复用实战:原理、功能与案例详解

1. 引言 在网络通信中,端口是一个重要的概念。它允许多个网络服务在同一台计算机上共存。然而,传统上每个端口只能被一个服务占用。端口复用技术打破了这个限制,允许多个服务共享同一个端口,从而提高了资源利用率和系统灵活性。本文将深入探讨端口复用的原理、功能,并通过…

Golang | Leetcode Golang题解之第433题最小基因变化

题目: 题解: func diffOne(s, t string) (diff bool) {for i : range s {if s[i] ! t[i] {if diff {return false}diff true}}return }func minMutation(start, end string, bank []string) int {if start end {return 0}m : len(bank)adj : make([][…

IMDB影评情感分析项目

imdb数据集下载地址: http://ai.stanford.edu/~amaas/data/sentiment/aclImdb_v1.tar.gz import os import torch from torch import nn import dltools def read_imdb(data_dir, is_train):data, labels = [], []for label in (pos, neg):folder_name = os.path.join(data_di…

日期类的实现- 计算日期之间相差多少天-解决单参数构造

个人主页:Jason_from_China-CSDN博客 所属栏目:C系统性学习_Jason_from_China的博客-CSDN博客 所属栏目:C知识点的补充_Jason_from_China的博客-CSDN博客 这里有坑,这里有坑,这里有坑 首选我们直接上代码,因…

Pymysql cursor.execute 批量执行插入语句踩坑

注意看cursor.execute()的官方注释: 括号里可以不带参数,如果要带参数,必须要是tuple,list 或者dict类型 而在我原来的错误代码里: 我将list类型的values又转换成了str,用逗号连接,传进了execu…

Vue3.X + SpringBoot小程序 | AI大模型项目 | 饮食陪伴官

gitee平台源码 github平台源码 饮食陪伴师是一个管理饮食的原生大模型小程序,优势: 精确营养监控:用户记录饮食后,我们会计算出食用的营养成分与分量,并反馈给用户。饮食建议有效:大模型经过我们训练具备大…

等保2.0测评:安全管理体系建设思路

在实际项目中,很多单位都太不重视等保的安全管理方面,也有很多单位比较重视,但是又不知从何入手。因此本文从等保2.0三级基本要求方面的简单介绍下安全管理体系的建设思路。 一、安全管理建设的重要性 这个很多人可能很难理解,尤…

LLM - 理解 多模态大语言模型(MLLM) 的 幻觉(Hallucination) 与相关技术 (七)

欢迎关注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/142463789 免责声明:本文来源于个人知识与公开资料,仅用于学术交流,欢迎讨论,不支持转载。 多模态…