一种基于并行注意力相关滤波的视频目标跟踪方法

    公开(公告)号:CN109102521A

    公开(公告)日:2018-12-28

    申请号:CN201810647331.2

    申请日:2018-06-22

    Abstract: 本发明公开一种基于并行注意力相关滤波的视频目标跟踪方法,属于图像处理技术领域。将跟踪问题设计为估计一个目标位置的概率,整合空间选择注意力SSA和表观选择注意力ASA,利用Log函数得到目标函数,实现视频目标的持续有效跟踪。首先进行SSA建模,产生一系列的二值图,经滤波获取位置响应图,然后在跟踪目标周围的半局部域采样一系列干扰区域,在相关视频滤波中学习抗干扰距离度量并进行抗干扰度量正则相关滤波,将干扰项推入负域,获取ASA目标图,再通过Log函数得到的目标函数,将在局部域和半局部域中处理的图像相融合对目标进行跟踪。具有处理问题时更加稳健准确、适应性强、跟踪效果好等优点。

    一种基于高置信度更新补充学习的跟踪算法

    公开(公告)号:CN109035290A

    公开(公告)日:2018-12-18

    申请号:CN201810782664.6

    申请日:2018-07-16

    Abstract: 本发明公开一种基于高置信度更新补充学习的跟踪算法,属于图像处理领域。首先根据标准相关滤波分类器得到相关滤波响应值,计算相关滤波响应的峰旁比作为响应置信度,若该置信度大于平均阈值则当前帧继续更新相关滤波器,如果小于平均阈值则停止更新滤波器;接着计算出持续不更新的帧数,如果有连续10帧不更新时,则强制更新;最后通过融合颜色补充学习器的响应,得到总响应,响应中最大值的位置即为跟踪结果。本发明显著改善了跟踪算法的鲁棒性,能够有效地区分目标和背景,进而提高跟踪器的精度,在光照剧烈变化和目标场景复杂的情况下显著地提高了跟踪器的稳健性和准确性。具有不受跟踪目标环境变化影响,可有效、准确跟踪到目标物体等优点。

    一种基于非局部时空特征学习的无监督视频分割方法

    公开(公告)号:CN107016675A

    公开(公告)日:2017-08-04

    申请号:CN201710130587.1

    申请日:2017-03-07

    CPC classification number: G06T2207/10016 G06T2207/20081

    Abstract: 本发明公开了一种基于非局部时空特征学习的无监督视频分割方法,包括获取所需分割的视频序列,利用超像素分割处理视频序列,利用光流进行前后帧信息匹配,根据视频序列相邻帧的信息获取运动目标的范围作为图模型初始化输入,利用全局信息对匹配结果进行优化,建立图模型并利用图割算法求解分割结果,以及视频分割所得运动目标的输出。通过对输入视频中的每一帧图像进行超像素分割可以极大地降低运算的复杂度,而利用非局部时空信息对光流得到的匹配信息进行优化则可以提高分割的鲁棒性,降低噪声的影响。无需任何人工干预,可以完全基于视频图像的自身信息获得较准确的分割结果。

    一种基于循环对抗生成网络的模拟靛胭脂染色方法

    公开(公告)号:CN116309947A

    公开(公告)日:2023-06-23

    申请号:CN202310267162.0

    申请日:2023-03-20

    Abstract: 本发明公开一种基于循环对抗生成网络的模拟靛胭脂染色方法,包括以下步骤:将内镜图像白光图像输入至训练好的模拟靛胭脂染色模型,生成模拟靛胭脂染色图像;所述模拟靛胭脂染色模型为基于Transformer和CNN的TransUNet骨干网络,其中,CNN中包括生成器GA、生成器GB和判别器Dx,所述模拟靛胭脂染色模型的训练方法包括:建立网络训练集;然后生成模拟染色图像P3;将模拟染色图像P3输入判别器Dx中,由判别器Dx判断模拟染色图像P3是否为内镜图像染色图像P2,得到相应的总损失并输入到生成器GA和生成器GB中进行训练。本发明提供的一种基于循环对抗生成网络的模拟靛胭脂染色方法,能够对内镜图像进行模拟靛胭脂染色,降低医疗成本,以及避免多次的内镜检测以及药物使用。

    一种基于条件生成对抗网络的超分辨率重建方法

    公开(公告)号:CN109978762B

    公开(公告)日:2023-06-16

    申请号:CN201910144539.7

    申请日:2019-02-27

    Abstract: 本发明公开了一种基于条件生成对抗网络的超分辨率重建方法,具体为:利用公开的超分辨率图像数据集,制作低分辨率图像和对应高分辨率图像训练集;构建条件生成对抗网络模型,在生成器网络中使用密集残差块,在生成网络模型的末端,用亚像素上采样方法实现超分辨率图像重建;把训练图像集输入到条件生成对抗网络中进行模型训练,通过感知损失函数让训练模型收敛;对图像测试集进行下采样处理,获得低分辨率测试图像;把低分辨率测试图像输入到条件对抗网络模型中,获得高质量的高分辨率图像。本发明可以很好的解决传统生成对抗网络生成的超分辨图像看似清晰、评估指标极低的问题,同时通过密集残差网络缓解梯度消失和高频信息丢失的问题。

    一种基于频域全局滤波的无监督视频目标分割方法

    公开(公告)号:CN116071748A

    公开(公告)日:2023-05-05

    申请号:CN202310059898.9

    申请日:2023-01-20

    Inventor: 王玉琛 宋慧慧

    Abstract: 本发明公开了一种基于频域全局滤波的无监督视频目标分割方法。基于视频帧及其对应的光流估计图像;通过双流CNN骨干网络分别提取外观特征与运动特征;通过频域全局滤波模块,将每组外观特征与运动特征进行融合并通过快速傅里叶变换,由空间域转换到频域,在频域中经过可学习的权重矩阵捕获全局依赖关系,再通过快速傅里叶逆变换转换回空间域,实现对特征全局依赖关系的捕获;再将特征进行多尺度的特征提取;然后将低分辨率特征不断上采样恢复至高分辨率并与高分辨率特征拼接,最终输出分割完成的视频目标掩模。本发明的无监督视频目标分割方法在干扰目标多样、背景杂乱的场景中依旧能显著地提高分割结果的准确性和鲁棒性,并且保持较低的计算量。

    一种基于互强化与多注意机制学习的深度相关目标跟踪算法

    公开(公告)号:CN110120064A

    公开(公告)日:2019-08-13

    申请号:CN201910392629.8

    申请日:2019-05-13

    Abstract: 本发明公开了一种基于互强化与多注意机制学习的深度相关目标跟踪算法,其步骤为:输入上一帧目标区域及下一帧的搜索区域;初始化特征提取器参数,经过均方误差损失通过梯度下降进行学习特征提取器的参数,将搜索区域通过特征提取器进行提取特征;计算特征的自相关性,通过岭回归封闭解学习到滤波器模板;下一帧通过上一帧推测出的目标位置确定搜索区域,通过设计好的特征提取器进行特征提取,计算目标区域和搜索区域特征的互相关;将其特征与滤波器模板进行相关操作,输出值中最大值就是目标跟踪的最新位置;每一帧都对目标滤波器模板进行学习更新。

    一种快速流形排序和低秩约束的协同显著性检测方法

    公开(公告)号:CN109086775A

    公开(公告)日:2018-12-25

    申请号:CN201810796361.X

    申请日:2018-07-19

    Abstract: 本发明公开了一种快速流形排序和低秩约束的协同显著性检测方法。首先,通过两阶段的快速流形排序算法为每张图片生成多张协同显著图;然后,基于协同显著图从每张图片分割出一组不同尺度的显著性区域,并通过显著图构建的特征矩阵得到自适应权重,与协同显著图相乘得到融合后的结果;最后,再利用图割法对检测结果作进一步优化。本发明能够有效增强协同显著性物体,并抑制背景和非协同显著区域。

    一种基于拉普拉斯金字塔网络的图像超分辨率重建方法

    公开(公告)号:CN110473144B

    公开(公告)日:2023-04-25

    申请号:CN201910725326.3

    申请日:2019-08-07

    Abstract: 本发明公开了一种基于拉普拉斯金字塔网络的图像超分辨率重建方法,包括通过多张低分辨率图像依次对生成器网络和判别器网络进行优化,得到训练后的生成器网络;通过训练后的生成器网络,将待重建的低分辨率图像重建为高分辨率图像。其中,本发明的生成器网络采用拉普拉斯金字塔网络,以逐步上采样重建HR图像,从而可以更好地重建大尺度的图像;同时,本发明通过沿着通道轴连接高级和低级特征以学习残差图像,以提高泛化能力,使重建的图像在视觉上边缘更清晰,纹理更丰富。

Patent Agency Ranking