-
公开(公告)号:CN119205802B
公开(公告)日:2025-02-28
申请号:CN202411687403.8
申请日:2024-11-25
Applicant: 东南大学
IPC: G06T7/10 , G06T7/00 , G06N3/0499 , G06N3/0895 , G06N3/096 , G06F3/01
Abstract: 本发明公开了一种眼动引导混合数据增强的半监督医学图像分割方法,步骤如下:通过眼动追踪设备收集医生阅读医学图像时的注视位置信息;使用教师—学生网络模型并采用两阶段训练方式训练模型;采用GazeMix作为训练中的数据增强策略,提取标注或未标注图像中的注视区域,将其粘贴到其他未标注图像的背景上,生成混合图像数据对;一阶段结合GazeMix数据增强策略预训练教师网络;二阶段训练学生网络,GazeMix生成多样化数据,同时预训练教师网络用于伪标签生成;采用多尺度注视感知,在不同尺度上提取模型感知信息并用于感知损失计算;优化器对学生网络参数进行迭代优化,同时使用指数移动平均方法更新教师网络。
-
公开(公告)号:CN110428427B
公开(公告)日:2023-05-12
申请号:CN201910639378.9
申请日:2019-07-16
Applicant: 东南大学
Abstract: 本发明公开了一种基于密集偏置网络和自编码器的半监督肾动脉分割方法,包括:对现有的腹部CT血管造影图像,分割出图像中的肾脏区域得到感兴趣区域图像并进行标注得到肾动脉的真实掩模,并形成监督训练数据集和无监督训练数据集;将无监督训练数据集输入三维卷积去噪自编码器中进行图像重建训练,得到训练好的去噪自编码器模型;将监督训练数据集输入去噪自编码器模型,获得每张图像的先验解剖特征并同对应图像输入构建的密集偏置网络中进行分割训练,得到分割模型;对于新的待分割腹部CT血管造影图像,输入去噪自编码器模型得到图像的先验解剖特征,输入分割模型得到分割结果。本发明能获得高准确率的输出结果,快速实现肾动脉分割。
-
公开(公告)号:CN109801268A
公开(公告)日:2019-05-24
申请号:CN201811620359.3
申请日:2018-12-28
Applicant: 东南大学
Abstract: 本发明公开了一种基于三维卷积神经网络的CT造影图像肾动脉分割方法,涉及图像处理技术领域,设计了一种应用于CT造影图像肾动脉分割的三维卷积网络结构,利用手工标注获得肾动脉数据集,然后将训练集送入该网络结构进行训练,得到训练模型,利用得到的训练模型对新的肾脏数据进行预测,得到肾动脉分割掩模。本发明能够获得高准确率的输出结果,能够解决肾动脉难分割的问题,通过本发明能够直接得到肾动脉分割掩模。
-
公开(公告)号:CN119205802A
公开(公告)日:2024-12-27
申请号:CN202411687403.8
申请日:2024-11-25
Applicant: 东南大学
IPC: G06T7/10 , G06T7/00 , G06N3/0499 , G06N3/0895 , G06N3/096 , G06F3/01
Abstract: 本发明公开了一种眼动引导混合数据增强的半监督医学图像分割方法,步骤如下:通过眼动追踪设备收集医生阅读医学图像时的注视位置信息;使用教师—学生网络模型并采用两阶段训练方式训练模型;采用GazeMix作为训练中的数据增强策略,提取标注或未标注图像中的注视区域,将其粘贴到其他未标注图像的背景上,生成混合图像数据对;一阶段结合GazeMix数据增强策略预训练教师网络;二阶段训练学生网络,GazeMix生成多样化数据,同时预训练教师网络用于伪标签生成;采用多尺度注视感知,在不同尺度上提取模型感知信息并用于感知损失计算;优化器对学生网络参数进行迭代优化,同时使用指数移动平均方法更新教师网络。
-
公开(公告)号:CN117635621B
公开(公告)日:2024-04-09
申请号:CN202410111204.6
申请日:2024-01-26
Applicant: 东南大学
Abstract: 本发明公开了一种动态视觉驱动的大模型无感交互分割方法,具体如下:引入动态视觉驱动分割技术,在医用领域利用医生动态视觉引导实时无感交互分割;初始化医学图像分割大模型并加载相关参数;使用眼动仪实时收集用户在图像上的视觉运动数据并将该图像输入图像编码器编码为高维特征;采用视觉运动数据过滤器,过滤噪声并将视觉运动数据分类为扫视行为数据和凝视行为数据;根据用户的视觉运动行为模式,智能选择将扫视行为数据或凝视行为数据作为提示信息用于分割;分割结果与原始图像叠加并可视化给用户提供反馈。本发明在临床上为医生提供更灵活、智能的交互方式,使整个交互分割过程更符合医生个性化的需求,提高了医生的工作效率。
-
公开(公告)号:CN109801268B
公开(公告)日:2023-03-14
申请号:CN201811620359.3
申请日:2018-12-28
Applicant: 东南大学
Abstract: 本发明公开了一种基于三维卷积神经网络的CT造影图像肾动脉分割方法,涉及图像处理技术领域,设计了一种应用于CT造影图像肾动脉分割的三维卷积网络结构,利用手工标注获得肾动脉数据集,然后将训练集送入该网络结构进行训练,得到训练模型,利用得到的训练模型对新的肾脏数据进行预测,得到肾动脉分割掩模。本发明能够获得高准确率的输出结果,能够解决肾动脉难分割的问题,通过本发明能够直接得到肾动脉分割掩模。
-
公开(公告)号:CN118154627B
公开(公告)日:2024-09-03
申请号:CN202410567441.3
申请日:2024-05-09
Applicant: 东南大学
IPC: G06T7/11 , G06N3/0464 , G06N3/0455 , G06N3/09 , G06F3/01
Abstract: 本发明公开了一种基于眼动注意力驱动的心超图像域适应分割方法,包括步骤:使用眼动仪收集医生在阅读目标域心脏超声图像时的眼动注视位置分布信息,利用源域数据训练初始化教师神经网络模型,获得初步的心脏超声图像分割能力,学生模型以伪标签为优化目标进行训练,眼动注视热力图经过编码器提取高维注意力特征,生成具有眼动注意力的教师模型在心脏超声图像上的通用特征,计算眼动加权损失和通用特征对齐损失之和优化模型。利用了医生诊断时的眼动热力图和领域自适应方法,使其能够在数据集紧缺并不额外消耗时间标注数据集的情况下训练出一个性能良好的心脏超声图像分割神经网络,并可以随着医生诊断过程的进行,持续不断的改善模型性能。
-
公开(公告)号:CN118154627A
公开(公告)日:2024-06-07
申请号:CN202410567441.3
申请日:2024-05-09
Applicant: 东南大学
IPC: G06T7/11 , G06N3/0464 , G06N3/0455 , G06N3/09 , G06F3/01
Abstract: 本发明公开了一种基于眼动注意力驱动的心超图像域适应分割方法,包括步骤:使用眼动仪收集医生在阅读目标域心脏超声图像时的眼动注视位置分布信息,利用源域数据训练初始化教师神经网络模型,获得初步的心脏超声图像分割能力,学生模型以伪标签为优化目标进行训练,眼动注视热力图经过编码器提取高维注意力特征,生成具有眼动注意力的教师模型在心脏超声图像上的通用特征,计算眼动加权损失和通用特征对齐损失之和优化模型。利用了医生诊断时的眼动热力图和领域自适应方法,使其能够在数据集紧缺并不额外消耗时间标注数据集的情况下训练出一个性能良好的心脏超声图像分割神经网络,并可以随着医生诊断过程的进行,持续不断的改善模型性能。
-
公开(公告)号:CN110428427A
公开(公告)日:2019-11-08
申请号:CN201910639378.9
申请日:2019-07-16
Applicant: 东南大学
Abstract: 本发明公开了一种基于密集偏置网络和自编码器的半监督肾动脉分割方法,包括:对现有的腹部CT血管造影图像,分割出图像中的肾脏区域得到感兴趣区域图像并进行标注得到肾动脉的真实掩模,并形成监督训练数据集和无监督训练数据集;将无监督训练数据集输入三维卷积去噪自编码器中进行图像重建训练,得到训练好的去噪自编码器模型;将监督训练数据集输入去噪自编码器模型,获得每张图像的先验解剖特征并同对应图像输入构建的密集偏置网络中进行分割训练,得到分割模型;对于新的待分割腹部CT血管造影图像,输入去噪自编码器模型得到图像的先验解剖特征,输入分割模型得到分割结果。本发明能获得高准确率的输出结果,快速实现肾动脉分割。
-
公开(公告)号:CN119338765A
公开(公告)日:2025-01-21
申请号:CN202411388352.9
申请日:2024-10-08
Applicant: 东南大学
Abstract: 本发明提出了一种在三维CT图像中测量肩关节盂骨缺损的方法,该方法分为五个模块,分别是分割模块、配准模块、定位模块、缺损大小测量模块和缺损比例测量模块,该方法能够实现较高分辨率下任意包含肩关节盂CT数据的缺损测量,不依赖于人工操作,实现自动化肩关节盂骨的缺损测量。本发明提出的方法能够标准地,自动地、较为准确地定量计算肩关节盂骨缺损的比例和缺损骨块的大小,极大地提高医生进行术前诊断的效率。本发明还提出了一种在三维CT图像中测量肩关节盂骨缺损的系统。该系统能够实现端到端地、自动化地得到肩关节盂骨缺损的指标,即输入为患者健侧和患侧肩关节CT数据,输出为肩关节盂骨缺损的指标。
-
-
-
-
-
-
-
-
-