-
公开(公告)号:CN117974830A
公开(公告)日:2024-05-03
申请号:CN202410230294.0
申请日:2024-02-29
Applicant: 北方工业大学
IPC: G06T11/00 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明公开了一种基于双网络交互学习的低剂量CT图像重建方法,首先对收集到的原始CT数据进行预处理;建立两个相互辅助的同僚网络,即特征融合低剂量CT图像重建网络SCRED,并搭建双网络交互学习框架MFRD,用于交流融合两个网络学习到的知识,充分利用图像隐藏信息;将处理后的CT数据输入到建立的CT图像重建网络SCRED,并在双网络交互学习框架下对该CT图像重建网络SCRED进行训练;将低剂量CT图像输入到步骤4训练好的CT图像重建网络SCRED中,输出高质量CT图像。该方法充分复用了CT图像信息,可以较好地恢复去噪后图像的细节和结构信息,而且稳定可靠、可扩展性好。
-
公开(公告)号:CN118037543A
公开(公告)日:2024-05-14
申请号:CN202410188426.8
申请日:2024-02-20
Applicant: 北方工业大学
IPC: G06T3/4038 , G06T7/33 , G06V10/40 , G06V10/80 , G06V10/774
Abstract: 本发明公开了一种基于无监督学习的大视差下图像拼接方法,通过网络监控摄像头采集大视差场景下目标周围环境的图像信息,并对图像信息进行处理,制作数据集;构建用于图像对配准对齐的特征提取融合网络,并引入了CGC模块;所述CGC模块用于聚焦图像三通道间特征的关联,进行不同通道间特征的交互和融合;将数据集输入所构建的特征提取融合网络,通过训练得到预训练权重,再对场景图像对进行图像拼接。上述方法解决了传统拼接的鲁棒性问题和深度拼接中目标信息提取匹配程度不好的问题,实现了对大视差监控视角下的图像拼接。
-