一种基于表示学习的医学图像分割方法

    公开(公告)号:CN115222749A

    公开(公告)日:2022-10-21

    申请号:CN202210852414.1

    申请日:2022-07-19

    Applicant: 吉林大学

    Abstract: 本发明公开了一种基于表示学习的医学图像分割方法,包括以下步骤:根据若干医学初始图像进行预处理获取若干组医学图像;基于马尔可夫决策过程为医学图像的像素表示学习过程建模;每个像素为一个智能体,将智能体基于全卷积神经网络构建全卷积A3C神经网络;根据全卷积A3C神经网络学习最优策略,获取最大化所有像素总预期奖励的平均值;训练全卷积A3C神经网络,通过多步解码获得最终的分割图像。本发明采用多步强化学习的方法来执行医学图像块的表示学习,既保证了网络分割模型更加关注感兴趣的区域,并且有效地减少了噪声所带来的干扰,使复杂的医学图像更易于分割与解读。

    一种基于边缘保留分解框架的多聚焦图像融合方法

    公开(公告)号:CN114549357A

    公开(公告)日:2022-05-27

    申请号:CN202210172695.6

    申请日:2022-02-24

    Applicant: 吉林大学

    Abstract: 本发明公开一种基于边缘保留分解框架的多聚焦图像融合方法,包括步骤一、获取源图像并编号,步骤二、边缘保留的图像分解框架的构建及源图像的分解,步骤三、平滑子带的融合,步骤四、细节子带的融合,步骤五、融合平滑子带和融合细节子带的图像重构;本发明通过构建边缘保留的图像分解框架,可有效地保留和锐化显著的边缘和脊,同时还可消除平滑子带中不需要的细节信息,并维护细节子带中的详细信息,根据平滑子带和细节子带各自的特点设计融合规则,可充分保留图像的结构和细节信息,使最终融合图像的融合效果更适合于人类的视觉感知。

    一种基于双路径胶囊网络的脑部MR图像分割方法

    公开(公告)号:CN113902758A

    公开(公告)日:2022-01-07

    申请号:CN202111195866.9

    申请日:2021-10-14

    Applicant: 吉林大学

    Abstract: 本发明提出一种基于双路径胶囊网络的脑部MR图像分割方法,该方法包括:第一,构建基于区域注意的半监督深度网络,通过全卷积置信网络对抗训练分割网络,获得标注样本数据;第二,根据像素的局部细节信息和全局信息,构建双路径胶囊网络;第三,采用输入连接、局部路径连接、预输出连接3种不同的连接方式,构建基于区域的胶囊网络级联架构,获得3种不同的分割结果;第四,采用融合策略将3种不同的分割结果进行合并,以获得最终的分割结果。本发明所述方法通过基于区域注意的半监督学习策略解决医学图像标注样本数据相对较少的问题,并采用级联架构描述相邻像素间的标签依赖关系,提高图像分割的准确度。实验结果表明,所述基于双路径胶囊网络的脑部MR图像分割方法能够有效处理脑部MR图像,并获得较好的分割结果。

    一种基于全局优化模型的多模态医学图像融合方法

    公开(公告)号:CN115222637A

    公开(公告)日:2022-10-21

    申请号:CN202210871344.4

    申请日:2022-07-22

    Applicant: 吉林大学

    Abstract: 本发明公开了一种基于全局优化模型的多模态医学图像融合方法,包括:获取已配准的图像对:解剖医学图像作为灰度图和功能图像作为三通道彩色图;将提取的功能图像的光照分量与单通道的灰度图像分别输入到全局优化分解的图像模块中,获得它们对应的基础层和细节层;将获得的基础层和细节层分别进行融合;将获得的融合的基础层和融合的细节层线性相加,获得融合的光照分量;将新的光照分量与输入的功能图像的颜色分量进行合并,获得最终的融合图像。本发明有效解决了医学图像融合算法中参数选择的不确定性,通过优化函数方法直接获得理想的融合图像。

    一种基于注意力机制的爆炸性手机X光图像分类方法

    公开(公告)号:CN115115895A

    公开(公告)日:2022-09-27

    申请号:CN202210896302.6

    申请日:2022-07-28

    Applicant: 吉林大学

    Abstract: 本发明提供了一种基于注意力机制的爆炸性手机X光图像分类方法,包括:获取所述爆炸性手机X光图像的数据集;构建分类模型,其中所述分类模型包括位置信息注意力模块和残差网络,所述位置信息注意力模块用于对所述爆炸性手机X光图像进行信息自适应聚合和重建;改进损失函数,基于改进后的所述损失函数对所述分类模型进行训练,通过训练后的所述分类模型对所述数据集中的图像进行特征提取,获取分类结果。本发明采用位置信息注意力模块引入到残差网络的设计,以及基于样本成本系数的损失函数指导网络学习,使分类模型具有强大的细节特征属性提取能力,能够准确分类带有爆炸物的手机。

    一种胸透诊断报告自动生成方法、装置、终端及存储介质

    公开(公告)号:CN119049637A

    公开(公告)日:2024-11-29

    申请号:CN202411140662.9

    申请日:2024-08-20

    Applicant: 吉林大学

    Abstract: 本发明公开了一种胸透诊断报告自动生成方法、装置、终端及存储介质,属于医学图像文本多模态处理技术领域,包括获取胸透图像,将所述胸透图像通过卷积特征提取模块得到图块级视觉特征;将所述图块级视觉特征通过编码器进一步捕获并整合复杂映射得到最终视觉隐藏状态;将所述最终视觉隐藏状态通过记忆驱动的视觉语义增强模块进行语义增强,得到增强后的视觉特征;将所述增强后的视觉特征输入到解码器中得到最终生成的诊断报告。本发明通过对视觉特征进行特别的语义增强,解决了主流模型架构的非对称特征流向性隐患,最终得以生成更准确更全面的诊断报告。

    基于多任务自监督学习的医学图像分割方法、装置及介质

    公开(公告)号:CN117576033A

    公开(公告)日:2024-02-20

    申请号:CN202311540075.4

    申请日:2023-11-17

    Applicant: 吉林大学

    Abstract: 本公开提供了基于多任务自监督学习的医学图像分割方法、装置及介质,获取医学图像,所述图像为灰度图像或彩色图像;将所述图像通过多任务联合预训练模块,根据任务要求不同进行训练,得到预训练好的编码器;将所述图像按照多个自监督学习任务的任务要求进行像素级变换;将所述图像的变换图像通过一个编码器结构,获得一个整合后的高维特征输出;将所述高维特征输出通过一个多头投影头,根据多任务要求训练以更新编码器参数;将所述编码器与分割解码器组合,对需分割的图像处理后输入,得到分割结果。针对多任务预训练模块设计了基于梯度的动态权重调整机制和动态学习率调整机制,缓解了多任务收敛速度的差异,更好地协同了多任务之间的学习过程。

    一种基于注意力机制的多焦点图像融合方法

    公开(公告)号:CN117475283A

    公开(公告)日:2024-01-30

    申请号:CN202311415095.9

    申请日:2023-10-29

    Applicant: 吉林大学

    Abstract: 本发明提出一种基于注意力机制的多焦点图像融合方法,该方法包括:第一借助卷积神经网络和注意力机制的性质,构建一个通用的端到端的多焦点图像融合网络模型,其输入为待输入的多焦点图像,输出为融合后的全聚焦图像;第二,构建一个接近真实情况的多焦点图像数据集,在该数据集上成功训练提出的融合模型;第三,将待融合图像输入到训练好的融合模型,得到最终的融合图像。本发明克服了其他传统或深度学习方法中忽视源图像重要信息的缺点,并具备较高的效率。实验结果表明,该方法能较好的融合各种多焦点图像。

    基于卷积神经网络的离散小波变换域多聚焦图像融合方法

    公开(公告)号:CN110443775B

    公开(公告)日:2022-12-16

    申请号:CN201910534050.0

    申请日:2019-06-20

    Applicant: 吉林大学

    Abstract: 本发明属于多聚焦图像融合技术领域,具体涉及基于卷积神经网络的离散小波变换域多聚焦图像融合方法;该方法包括以下步骤:首先,使用离散小波变换将每个源图像分解为一个低频子带和多个高频子带;第二,将它们输入到不同的卷积神经网络中,以便获得不同的权重图;第三,通过执行一系列处理后重新定义决策图;第四,根据它们的决策图,将频率子带分别融合;最后,通过逆DWT获得融合图像;是一种能够将多聚焦图像融合在一起,获得“全焦点”图像的融合方法,解决了多聚焦图像融合的问题,其融合效果优于传统融合方法,适应性更强,可以高效率的融合多聚焦图像。

Patent Agency Ranking