一种基于条件生成对抗网络的单幅图像超分辨率重建方法

    公开(公告)号:CN110136063B

    公开(公告)日:2023-06-23

    申请号:CN201910392719.7

    申请日:2019-05-13

    Abstract: 本发明公开了一种基于条件生成对抗网络的单幅图像超分辨率重建方法。在生成对抗网络的判别器网络中加入判别条件,即原始真实图像。在生成器网络中加入深度残差学习模块来实现高频信息的学习和缓解梯度消失的问题。将需要重建的单张低分辨率图像输入至预先训练好的条件生成对抗网络中,进行超分辨率重建,得到重建的高分辨率图像;所述条件生成对抗网络模型的学习步骤包括:将高低分辨率训练集输入到条件生成对抗网络模型中,并使用预先训练好的模型参数作为该次训练的初始化参数,通过损失函数来判断整个网络的收敛情况,当损失函数收敛时,得到最终训练好的条件生成对抗网络模型,并保存模型参数。

    一种基于图卷积梯度引导的多分支协同显著性检测方法

    公开(公告)号:CN115546511A

    公开(公告)日:2022-12-30

    申请号:CN202210691998.9

    申请日:2022-06-17

    Abstract: 本发明公开了一种基于图卷积梯度引导的多分支协同显著性检测方法。在相似度提取分支中,我们用CNN提取输入的一组图片的浅层和中层特征。在图卷积分支中,我们用GCN对这组图片进行特征提取,剔除背景噪声,得到平滑的深层特征。将此二分支高维特征进行融合,得到一组具备鉴别性的共识表示,再将此共识表示逐次与组内单张图片特征信息进行融合,得到一组高维图像级信息,利用反向传播中的梯度信息来引导模型关注具有鉴别性的特征。我们进一步利用坐标轴注意力机制,协助在引导深层信息指导上采样过程中恢复目标边界,最终获得协同显著性图。本发明的协同显著性检测算法在干扰目标多样、背景杂乱的场景中能显著地提高准确性和鲁棒性。

    一种基于流形正则化的上下文相关滤波视频跟踪方法

    公开(公告)号:CN109064492B

    公开(公告)日:2022-04-01

    申请号:CN201810826449.1

    申请日:2018-07-25

    Abstract: 本发明公开了一种基于流形正则化的上下文相关滤波视频跟踪方法,该相关滤波跟踪方法的基础样本采用中心区域及其周围区域作为正负样本,并在一系列的循环样本中加入流形结构,进行离散傅里叶变换快速计算。本发明提出的一种基于流形正则化的上下文相关滤波视频跟踪方法有效地利用了目标上下文区域间的结构信息,构建了流形正则项来约束目标函数,很好地抑制了混乱背景下的噪声,显著地提高了跟踪算法的精度和稳健性。

    一种基于拉普拉斯金字塔网络的图像超分辨率重建方法

    公开(公告)号:CN110473144A

    公开(公告)日:2019-11-19

    申请号:CN201910725326.3

    申请日:2019-08-07

    Abstract: 本发明公开了一种基于拉普拉斯金字塔网络的图像超分辨率重建方法,包括通过多张低分辨率图像依次对生成器网络和判别器网络进行优化,得到训练后的生成器网络;通过训练后的生成器网络,将待重建的低分辨率图像重建为高分辨率图像。其中,本发明的生成器网络采用拉普拉斯金字塔网络,以逐步上采样重建HR图像,从而可以更好地重建大尺度的图像;同时,本发明通过沿着通道轴连接高级和低级特征以学习残差图像,以提高泛化能力,使重建的图像在视觉上边缘更清晰,纹理更丰富。

    一种基于双重调制的视频目标分割方法

    公开(公告)号:CN110148138A

    公开(公告)日:2019-08-20

    申请号:CN201910432731.6

    申请日:2019-05-23

    Abstract: 本发明公开了一种基于双重调制的视频目标分割方法,包括步骤一:将当前视频帧图像输入至调制好的分割网络中,输出当前视频帧图像中分割目标对应的特征图;步骤二:将分割网络输出的特征图输入至特征注意金字塔模块中得到分割目标对应的最终特征图,完成目标分割;所述特征注意金字塔模块借助于该输入的特征图的全局上下文表示,来学习得到输入的特征图的不同尺度信息,得到分割目标对应的最终特征图。

    一种基于条件生成对抗网络的单幅图像超分辨率重建方法

    公开(公告)号:CN110136063A

    公开(公告)日:2019-08-16

    申请号:CN201910392719.7

    申请日:2019-05-13

    Abstract: 本发明公开了一种基于条件生成对抗网络的单幅图像超分辨率重建方法。在生成对抗网络的判别器网络中加入判别条件,即原始真实图像。在生成器网络中加入深度残差学习模块来实现高频信息的学习和缓解梯度消失的问题。将需要重建的单张低分辨率图像输入至预先训练好的条件生成对抗网络中,进行超分辨率重建,得到重建的高分辨率图像;所述条件生成对抗网络模型的学习步骤包括:将高低分辨率训练集输入到条件生成对抗网络模型中,并使用预先训练好的模型参数作为该次训练的初始化参数,通过损失函数来判断整个网络的收敛情况,当损失函数收敛时,得到最终训练好的条件生成对抗网络模型,并保存模型参数。

    一种基于条件生成对抗网络的超分辨率重建方法

    公开(公告)号:CN109978762A

    公开(公告)日:2019-07-05

    申请号:CN201910144539.7

    申请日:2019-02-27

    Abstract: 本发明公开了一种基于条件生成对抗网络的超分辨率重建方法,具体为:利用公开的超分辨率图像数据集,制作低分辨率图像和对应高分辨率图像训练集;构建条件生成对抗网络模型,在生成器网络中使用密集残差块,在生成网络模型的末端,用亚像素上采样方法实现超分辨率图像重建;把训练图像集输入到条件生成对抗网络中进行模型训练,通过感知损失函数让训练模型收敛;对图像测试集进行下采样处理,获得低分辨率测试图像;把低分辨率测试图像输入到条件对抗网络模型中,获得高质量的高分辨率图像。本发明可以很好的解决传统生成对抗网络生成的超分辨图像看似清晰、评估指标极低的问题,同时通过密集残差网络缓解梯度消失和高频信息丢失的问题。

    一种基于颜色聚类和时空正则回归的视频跟踪方法

    公开(公告)号:CN109359663A

    公开(公告)日:2019-02-19

    申请号:CN201810960742.7

    申请日:2018-08-22

    CPC classification number: G06K9/6292 G06K9/4642 G06K9/4652 G06K9/6221

    Abstract: 本发明公开了一种基于颜色聚类和时空正则回归的视频跟踪方法,属于视频跟踪方法领域。本发明包括以下具体步骤:对目标区域颜色聚类;统计出直方图;计算颜色聚类响应;学习时空融合正则化的相关滤波模型;计算时空正则相关滤波响应;融合颜色聚类响应和时空正则响应;更新分类器参数。本发明通过对初始颜色的聚类,有效地缓解了噪声的影响;并且通过时空正则化,充分利用了不同帧之间的时间和空间信息,提升了目标跟踪技术在各类场景中的精度。

    一种基于时空非局部正则的相关滤波视频跟踪方法

    公开(公告)号:CN109242885A

    公开(公告)日:2019-01-18

    申请号:CN201811019303.2

    申请日:2018-09-03

    Abstract: 本发明公开了一种基于时空非局部正则的相关滤波视频跟踪方法,受到视频中的时空非局部性目标表观重现技术的启发,我们利用非局部信息来精确地表述和分割目标,得到一个目标概率图去正则化目标跟踪里的相关滤波器。特别地,给出一个目标边界框,我们首先生成一系列超像素去描述前景和背景,然后利用长期的时空非局部相似物来更新每个像素的表观。接着,利用更新过的表观,我们利用超像素标签的一致性概率建模出了一个时空图模型。之后,我们通过优化图模型更新表观模型和预测标签。最终,利用分割掩模,我们获得了一个目标概率图,它被用来自适应地约束相关滤波学习,通过挤压混乱背景下的噪声,以此来充分利用长期的稳定的目标表观信息。本发明的视频跟踪算法在光照剧烈变化和目标场景复杂的情况下显著地提高了跟踪器的稳健性和准确性。

    一种基于多层注意力机制的实时视频目标跟踪算法

    公开(公告)号:CN109978921A

    公开(公告)日:2019-07-05

    申请号:CN201910256178.5

    申请日:2019-04-01

    Abstract: 本发明提出了一种基于多层注意力机制的实时视频目标跟踪算法,其步骤为:输入一系列模板图像和搜索图像;构建多层注意力卷积神经网络作为匹配函数;利用相关操作计算模板图像和搜索图像的相似度;再利用逻辑损失函数作为优化的目标函数;采用动量随机梯度下降优化网络参数;卷积网络在线跟踪时固定模型参数,将第一帧目标作为模板输入到网络中,后续帧依次输入网络和第一帧得到的输出进行相关计算,得到一个响应得分图;找到响应图中得分最高的位置就是目标的位置,通过将目标放大到与原图一样的大小就得到跟踪目标。我们提出的多层注意孪生网络跟踪算法,能够有效地利用注意力机制把目标和背景分开,并在目标旋转、形变和部分遮挡的情况下显著地提高了跟踪器的准确性和泛化性。

Patent Agency Ranking