基于物体整体性和局部性识别的跟踪方法

    公开(公告)号:CN103413120B

    公开(公告)日:2016-07-20

    申请号:CN201310317400.0

    申请日:2013-07-25

    Abstract: 本发明公开了一种基于物体整体性和局部性识别的跟踪方法,基于局部性信息的识别把各候选区域进行超像素分割,根据物体局部表征的特征,为超像素赋予不同的权值,提出加权相似度量,计算各候选目标区域置信度。基于整体性的识别将物体性度量引入到当前帧的目标物体检测部分,选取色彩、边缘和超像素作为物体性度量的三个线索,给出各自的评分规则,结合这三个线索和基于局部性信息的识别计算置信度对扩展区域中的所有候选目标区域进行评分,根据评分确定目标区域。本发明方法可以较好地描述动态变化的跟踪场景中的目标物体,结合物体性度量使目标区域更好收敛于目标物体,减少背景出现在目标区域中,增强了跟踪的准确率和稳定性。

    基于局部特征学习的目标跟踪方法

    公开(公告)号:CN105678338A

    公开(公告)日:2016-06-15

    申请号:CN201610024953.0

    申请日:2016-01-13

    Abstract: 本发明公开了一种基于局部特征学习的目标跟踪方法,将目标物体和背景分解成大量的具有尺度和形状不变性的局部单元,将其作为目标和背景分类模型的训练样本,采用深度学习的方式,从训练样本中学习出目标物体以及背景的局部表达。再判断出图像中每个特定区域属于目标物体的置信度,实现目标物体的准确定位。因这种由大量样本学习得出的局部表达具有高度的目标识别能力,该跟踪方法对目标形变、目标遮挡等情况具有较高的适应能力。更新物体表观模型时,抽取出目标置信度较高的局部区域作为模型的训练样本,并对模型进行更新。本方法在目标跟踪的过程中,不断更新表观模型,学习目标物体的关键特征,在外观变化较大的情景下能够取得更好的跟踪效果。

    基于部件级表观模型的物体跟踪方法

    公开(公告)号:CN103413323B

    公开(公告)日:2016-01-20

    申请号:CN201310317408.7

    申请日:2013-07-25

    Abstract: 本发明公开了一种基于部件级表观模型的物体跟踪方法,是基于中层视觉线索部件级更新表观模型的方法,通过对图像进行超像素分割,以超像素描述跟踪物体的目标部件,利用目标部件的信息构造物体特征池建立和更新物体的表观模型,该模型能够准确的表达形变、遮挡等情况下的运动物体。更新物体表观模型时,用新跟踪帧的部件替换特征池中将被替换的部分部件集,建立目标物体部件的特征补集,将特征补集作为新跟踪帧的部件描述信息加入特征池,再根据新的特征池建立表观模型实现表观模型的更新。本法随着对物体跟踪的进行,更新表观模型信息集中被跟踪物体的信息,物体表观模型更加全面,在指导跟踪严重遮挡、变形等外观变化较大时能够取得更好的效果。

    一种基于梯度分解的增长知识图的持续嵌入方法

    公开(公告)号:CN119443242A

    公开(公告)日:2025-02-14

    申请号:CN202411569650.8

    申请日:2024-11-05

    Abstract: 本发明提供一种基于梯度分解的增长知识图的持续嵌入方法,包括将时序知识图谱按照时间顺序划拆分成一系列的快照子图,构成不断增长的知识图谱;将嵌入模型的整体损失分为现有三元组和增量三元组上的两个不同损失,并将连续嵌入任务转化为约束优化问题;根据约束优化问题,构建适用于嵌入模型的连续嵌入算法;将训练集的每个快照子图依次输入到嵌入模型中采用连续嵌入算法进行增量训练;将测试集输入到训练好的嵌入模型中,获得最终的链路预测的平均准确度。本发明将知识图谱嵌入模型的损失函数转化为约束优化问题,为促进增长知识图谱的增量表示学习提供了新的方法;本发明能够在学习效率和更新有效性之间取得平衡;且具有强大的持续嵌入能力。

    一种基于多频网络的路面裂缝分割方法

    公开(公告)号:CN116563541A

    公开(公告)日:2023-08-08

    申请号:CN202310494390.1

    申请日:2023-05-04

    Inventor: 王美华 李朋涛

    Abstract: 本发明提供一种基于多频网络的路面裂缝分割方法,包括S1)、构建分频网络;S2)、对路面裂缝图像X和路面裂缝标签图像Y进行预处理;S3)、将训练集输入分频网络进行模型训练;S4)、将测试集图像输入训练好的训练模型中,经过编码器的处理,提取到裂缝测试集图像的高低频特征;S5)、将高低频特征送入解码器,通过分频最大上池化操作充分利用提取到的裂缝高低频特征,逐步恢复图像细节,最终得到精确的裂缝分割图。本发明结合了分频卷积残差块和分频最大上池化操作,防止提取到的高低频特征丢失,提高了模型的性能,同时利用裂缝图像的高低频特征,提高了网络对裂缝图像特征的提取能力,从而提升了裂缝分割的效果。

    基于融合双边重组注意力的二阶段Transformer编解码器的去运动模糊方法

    公开(公告)号:CN115564664A

    公开(公告)日:2023-01-03

    申请号:CN202211057854.4

    申请日:2022-08-30

    Abstract: 本发明提供一种基于融合双边重组注意力的二阶段Transformer编解码器的去运动模糊方法,为了提高去模糊的效果,提出了Transformer双边动态局部窗口,以水平和垂直方向进行动态增长的局部窗口自注意力,使得网络学习时能从不同方向的局部到全局进行模糊恢复。适用于二阶段编解码器的监督残差注意力机制和优化残差特征传递的双边重组注意力机制,使得模型能够分阶段分别关注残差边缘特征和内容恢复特征,并采用双边重组注意力对残差特征进行重构传递,进一步提升了模型的性能。结合了双边重组注意力机制、监督残差注意力和双边动态局部窗口Transformer二阶段编解码器,从而提高了网络的表达力,提升了去模糊效果。

    一种基于改进混合注意力模块的农作物病虫害的细粒度识别方法

    公开(公告)号:CN111985370A

    公开(公告)日:2020-11-24

    申请号:CN202010793451.0

    申请日:2020-08-10

    Abstract: 本发明公开了一种基于改进混合注意力模块的农作物病虫害的细粒度识别方法,先输入农作物病虫害图片,预处理后经过卷积层进行特征提取,向前传播过程使用Inception思想结合残差连接的结构,将卷积层得到的特征图F作为注意力I_CBAM的输入,得到权值MC(F)和MS(F);最后得到特征图F2,用softmax函数产生最终的预测概率。为了提高病虫害识别模型的准确率并及时对病虫害进行检测,本发明对混合注意力CBAM进行改进,通过通道注意力与空间注意力的并行连接结构,解决了串行连接通道注意力和空间注意力产生的干扰的问题,在使添加注意力后的病虫害细粒度识别模型准确率的提升更加稳定的同时,也保证了I_CBAM在不同模型直接的泛化性。

    基于重要区域识别和匹配的视频跟踪方法

    公开(公告)号:CN107564035B

    公开(公告)日:2020-10-09

    申请号:CN201710643069.X

    申请日:2017-07-31

    Abstract: 本发明公开了一种基于重要区域识别和匹配的视频跟踪方法,包括下述步骤:首先,基于最小生成树理论识别初始目标的重要区域,得到目标重要区域并构建目标模板;然后,识别后续帧目标扩展区域的重要区域,并将该区域作为采样区域进行样本采集;接着,计算每个样本与目标模版的形状相似度值、颜色相似度值、皮尔逊相关系数值,并对三个值进行加权计算得到样本与目标模版的匹配度;最后,基于阈值比较方法更新目标模板以支持后续跟踪直至跟踪完成。本发明方法基于重要区域识别可以较好地描述动态变化的跟踪场景中的目标物体,结合目标的重要区域进行样本采集,提高了采样质量,增强了跟踪的准确率和稳定性。

    一种基于重用原始信息的压缩奖惩神经网络的单幅图像去雨方法

    公开(公告)号:CN110310238A

    公开(公告)日:2019-10-08

    申请号:CN201910526839.1

    申请日:2019-06-18

    Abstract: 本发明涉及一种基于重用原始信息的压缩奖惩神经网络的单幅图像去雨方法,首先利用快速引导滤波将有雨图像分解为低频图层和高频图层;接着将高频图层输入到一个结合了压缩奖惩神经网络结构块、批归一化处理以及本方法提出的重用原始信息连接方式的神经网络中进行特征学习与提取,去除其中的雨线;最后将去除雨线之后的高频图层与原始的低频图层相加得到最终的去雨结果。本方法针对单幅有雨图像进行去雨,与现有的传统去雨方法、基于深度学习去雨方法相比,都能得到更高质量的无雨图像;并且本方法提出的网络是基于压缩奖惩神经网络的,而本方法提出的网络所使用的压缩奖惩结构块则可以很好地刻画特征通道之间的关系,从而提高网络的表达力,提升去雨效果。

    一种基于深度卷积神经网络的单图像精细去雨方法

    公开(公告)号:CN107133935B

    公开(公告)日:2019-07-02

    申请号:CN201710377210.6

    申请日:2017-05-25

    Abstract: 本发明公开了一种基于深度卷积神经网络的单图像精细去雨方法,首先通过初始去雨网络对输入的雨图进行背景纹理结构的提取、非线性映射和雨线区域复原,最终得到初步清晰的无雨图像,然后将初步清晰无雨图像和原始图像同时输入到具有单个卷积层的精细去雨网络,从而恢复背景区域的更多细节,最终得到高清晰去雨图像,本方法通过采用caffe框架,对初始去雨网络和精细去雨网络进行训练,以准确得到每个卷积层的参数,并且对有雨图像进行精细去雨处理,与传统卷积神经网络去雨方法相比,能得到更高质量的无雨图像,并且本方法实用性强,可广泛使用多个场景。

Patent Agency Ranking