-
公开(公告)号:CN116030078B
公开(公告)日:2023-06-30
申请号:CN202310315976.7
申请日:2023-03-29
Applicant: 之江实验室
IPC: G06T7/11 , G06T7/00 , G06N3/0455 , G06N3/0475 , G06N3/094
Abstract: 本发明公开了一种多任务学习框架下结合注意力的肺叶分割方法及系统。本发明将肺叶分割任务作为主要任务、肺实质分割任务作为辅助任务,并行计算肺叶分割任务和肺实质分割任务;并在网络中插入通道注意力模块和锐化空间注意力模块,通道注意力模块能够强化通道特征信息,锐化空间注意力能够提升边缘测试效果,该网络能够自适应地权衡不同的任务,优化多任务目标的网络,最后训练得到的分割模型能实现三维图像的快速准确分割。本发明能有效利用神经网络学习多任务之间的共有特征,有望提取到更加全面的特征,强化主任务肺叶分割网络性能,在不增加实际使用时深度网络复杂度的情况下,提高深度网络对肺叶的分割能力。
-
公开(公告)号:CN115222752A
公开(公告)日:2022-10-21
申请号:CN202211138097.3
申请日:2022-09-19
Applicant: 之江实验室
IPC: G06T7/11 , G06T7/00 , A61B6/00 , G06T7/90 , G06V10/25 , G06V10/764 , G06V10/774 , G06V10/82
Abstract: 本发明公开了一种基于特征解耦的病理图像特征提取器训练方法及装置,该训练方法通过构建特征解耦网络,同时设置六个子损失函数对网络进行约束训练,其中特征解耦网络包含多个生成对抗网络,可以将病理图像解耦分解成颜色信息特征和组织结构信息特征,在保留纯净无杂质的组织结构信息的同时消除人为造成的染色差异对网络性能的负面影响。设置的损失函数最大程度的保证颜色编码器和组织结构编码器特征提取的针对性。训练获得的特征提取器可以覆盖不同病理图像的多个颜色域并引入不同域的颜色变化,适应来自不同中心的病理图像,具有更高的泛化性能。
-
公开(公告)号:CN113538422B
公开(公告)日:2022-01-18
申请号:CN202111068267.0
申请日:2021-09-13
Applicant: 之江实验室
Abstract: 本发明公开了一种基于染色强度矩阵的病理图像自动分类方法,该方法直接提取病理图像中与染色剂配比、染色平台、扫描平台以及一些人为因素无关的染色强度矩阵作为分类的特征信息,不需要恢复归一化后的染色图像,在保留与诊断相关的所有无杂质信息的同时,避免了现有的基于传统颜色归一化方法的病理图像计算机辅助诊断方法会出现的诊断效果随选取的标准病理切片的变化而变化的现象,且避免了因需要恢复染色后的图像所引入的误差,诊断精度更高且诊断效果更稳定,同时可以在更短的时间内实现对病理图像的诊断,易于实现,更具有实用性。
-
公开(公告)号:CN113538422A
公开(公告)日:2021-10-22
申请号:CN202111068267.0
申请日:2021-09-13
Applicant: 之江实验室
Abstract: 本发明公开了一种基于染色强度矩阵的病理图像自动分类方法,该方法直接提取病理图像中与染色剂配比、染色平台、扫描平台以及一些人为因素无关的染色强度矩阵作为分类的特征信息,不需要恢复归一化后的染色图像,在保留与诊断相关的所有无杂质信息的同时,避免了现有的基于传统颜色归一化方法的病理图像计算机辅助诊断方法会出现的诊断效果随选取的标准病理切片的变化而变化的现象,且避免了因需要恢复染色后的图像所引入的误差,诊断精度更高且诊断效果更稳定,同时可以在更短的时间内实现对病理图像的诊断,易于实现,更具有实用性。
-
公开(公告)号:CN115082743B
公开(公告)日:2022-12-06
申请号:CN202210980903.5
申请日:2022-08-16
Applicant: 之江实验室
Abstract: 本发明公开了一种考虑肿瘤微环境的全视野数字病理图像分类系统及构建方法,该方法首先进行全视野数字病理图像的特征提取,随后构建了由肿瘤微环境感知模块、深度门控注意力模块、相似度感知注意力模块和分类层组成的多示例分类网络,实现了对全视野数字病理图像的分类和病灶检测。其中肿瘤微环境感知模块可以建模肿瘤微环境中的拓扑结构信息,使网络学习到的特征具有更高的鲁棒性;深度门控注意力模块和相似度感知模块相结合可以更加准确地赋予每个图像块对应的权重以实现对病灶区域更加精准的检测。还设计了图像增广方法的自监督对比学习任务,减少全视野数字病理图像因染色、成像等因素产生的颜色差异对网络产生影响,且训练过程无需任何标签。
-
公开(公告)号:CN115082743A
公开(公告)日:2022-09-20
申请号:CN202210980903.5
申请日:2022-08-16
Applicant: 之江实验室
Abstract: 本发明公开了一种考虑肿瘤微环境的全视野数字病理图像分类系统及构建方法,该方法首先进行全视野数字病理图像的特征提取,随后构建了由肿瘤微环境感知模块、深度门控注意力模块、相似度感知注意力模块和分类层组成的多示例分类网络,实现了对全视野数字病理图像的分类和病灶检测。其中肿瘤微环境感知模块可以建模肿瘤微环境中的拓扑结构信息,使网络学习到的特征具有更高的鲁棒性;深度门控注意力模块和相似度感知模块相结合可以更加准确地赋予每个图像块对应的权重以实现对病灶区域更加精准的检测。还设计了图像增广方法的自监督对比学习任务,减少全视野数字病理图像因染色、成像等因素产生的颜色差异对网络产生影响,且训练过程无需任何标签。
-
公开(公告)号:CN115761379A
公开(公告)日:2023-03-07
申请号:CN202211578025.0
申请日:2022-12-06
Applicant: 之江实验室
IPC: G06V10/764 , G06N3/08 , G06N3/0464
Abstract: 本申请涉及一种用于病理图像的分类方法、装置、设备和存储介质。方法包括:对待检测的全视野数字病理图像进行处理,得到降采样图像块;构建蒸馏与对抗网络,对蒸馏与对抗网络进行训练,从训练后的蒸馏与对抗网络中提取到分类子网络;将降采样图像块导入分类子网络中进行分类,得到初始分类结果;基于初始分类结果得到对应待检测的全视野数字病理图像的分类结果。采用本方法能够通过将小数据量的降采样图像块输入轻量的分类子网络对相应的病理图像进行快速、高效的分类。
-
公开(公告)号:CN115222752B
公开(公告)日:2023-01-24
申请号:CN202211138097.3
申请日:2022-09-19
Applicant: 之江实验室
IPC: G06T7/11 , G06T7/00 , A61B6/00 , G06T7/90 , G06V10/25 , G06V10/764 , G06V10/774 , G06V10/82
Abstract: 本发明公开了一种基于特征解耦的病理图像特征提取器训练方法及装置,该训练方法通过构建特征解耦网络,同时设置六个子损失函数对网络进行约束训练,其中特征解耦网络包含多个生成对抗网络,可以将病理图像解耦分解成颜色信息特征和组织结构信息特征,在保留纯净无杂质的组织结构信息的同时消除人为造成的染色差异对网络性能的负面影响。设置的损失函数最大程度的保证颜色编码器和组织结构编码器特征提取的针对性。训练获得的特征提取器可以覆盖不同病理图像的多个颜色域并引入不同域的颜色变化,适应来自不同中心的病理图像,具有更高的泛化性能。
-
公开(公告)号:CN115063592B
公开(公告)日:2022-12-06
申请号:CN202210980583.3
申请日:2022-08-16
Applicant: 之江实验室
IPC: G06V10/26 , G06V10/764 , G06V10/774 , G06V10/80 , G16H30/20 , G16H50/20 , G06T7/00
Abstract: 本发明公开了一种基于多尺度的全扫描病理特征融合提取方法及系统,本发明通过使用多尺度的全扫描病理特征融合提取的方式,借用多尺度的方案使得特征提取拥有更全面的信息,既有全局的整体信息,又有局部的详细信息。再结合注意力机制的加权融合方案,使得最终获取的特征,重点更加突出,更能代表全扫描病理图像。通过本发明,可以更好的获取全扫描病理图像的整体特征,从而可以协助病理科医生进行病理诊断、帮助临床医生更好的使用多模态信息进行疾病诊断时,提高多模态融合分析的准确性。
-
公开(公告)号:CN115063592A
公开(公告)日:2022-09-16
申请号:CN202210980583.3
申请日:2022-08-16
Applicant: 之江实验室
IPC: G06V10/26 , G06V10/764 , G06V10/774 , G06V10/80 , G16H30/20 , G16H50/20 , G06T7/00
Abstract: 本发明公开了一种基于多尺度的全扫描病理特征融合提取方法及系统,本发明通过使用多尺度的全扫描病理特征融合提取的方式,借用多尺度的方案使得特征提取拥有更全面的信息,既有全局的整体信息,又有局部的详细信息。再结合注意力机制的加权融合方案,使得最终获取的特征,重点更加突出,更能代表全扫描病理图像。通过本发明,可以更好的获取全扫描病理图像的整体特征,从而可以协助病理科医生进行病理诊断、帮助临床医生更好的使用多模态信息进行疾病诊断时,提高多模态融合分析的准确性。
-
-
-
-
-
-
-
-
-