基于对偶综合-解析字典学习的行人再识别方法

    公开(公告)号:CN107679461A

    公开(公告)日:2018-02-09

    申请号:CN201710816499.7

    申请日:2017-09-12

    Abstract: 本发明设计了一种基于对偶综合-解析字典学习的行人再识别方法,其主要技术特点是:从行人再识别数据中提取行人图像特征;采用局部Fisher判决分析方法将不同摄像机视角下的行人图像特征投影到公共特征空间;运用对偶综合-解析字典学习算法,在公共特征空间中学习对偶综合字典和对偶解析字典;建立行人匹配模型,并利用改进余弦公式进行行人距离计算。本发明设计合理,其通过在原始对偶综合字典学习中引入对偶解析字典,解析字典拥有判决能力,提高了综合字典的数据表示能力,使得字典能够更有效的表示数据的本征结构,获得了有效的再识别性能。

    基于多路径密集特征融合全卷积网络的目标检测方法

    公开(公告)号:CN108846446B

    公开(公告)日:2021-10-12

    申请号:CN201810721733.2

    申请日:2018-07-04

    Abstract: 本发明涉及一种基于多路径密集特征融合全卷积网络的目标检测方法,利用深度卷积神经网络提取具有不同特征信息的分层多尺度特征图;利用自底向上的旁路连接进行自下而上的特征融合;利用自顶向下的密集旁路连接进行自上而下的密集特征融合;构建不同大小和长宽比的目标候选框;利用二分类器减少目标候选框中的简单背景样本,并利用多任务损失函数对二分类器、多类别分类器和边界框回归器进行联合优化。本发明基于深度卷积神经网络提取图像特征,利用多路径密集特征融合方法改善特征表达能力,构建了用于目标检测的全卷积网络,提出了减少冗余简单背景样本和多任务损失联合优化的策略,提高了算法的检测精度,获得了良好的目标检测结果。

    基于AdaRank的深度特征和传统特征的集成方法

    公开(公告)号:CN107292259A

    公开(公告)日:2017-10-24

    申请号:CN201710450306.0

    申请日:2017-06-15

    Abstract: 本发明涉及一种基于AdaRank的深度特征和传统特征的集成方法,其主要技术特点是:将图像数据进行分割,针对不同部分分别构造并训练深度卷及神经网络,用以获得深度特征;从行人再识别数据中提取传统特征,包括LOMO特征、ELF6特征、Hog3D特征;选取如下三种度量学习方法:KISSME、kLFDA和LMNN;将所有特征与三种度量学习方法进行组合张成笛卡尔乘积,得到一系列弱排序器;利用AdaRank算法,对弱排序器进行集成学习,最终得到强排序器。本发明设计合理,结合了深度学习、多特征、度量学习、集成学习,通过构造“弱排序器”并进行集成学习,使得系统的整体性能远远高于单一特征和单一度量算法,使得系统整体匹配率大大提升,获得了很好的性能。

    基于多路径密集特征融合全卷积网络的目标检测方法

    公开(公告)号:CN108846446A

    公开(公告)日:2018-11-20

    申请号:CN201810721733.2

    申请日:2018-07-04

    Abstract: 本发明涉及一种基于多路径密集特征融合全卷积网络的目标检测方法,利用深度卷积神经网络提取具有不同特征信息的分层多尺度特征图;利用自底向上的旁路连接进行自下而上的特征融合;利用自顶向下的密集旁路连接进行自上而下的密集特征融合;构建不同大小和长宽比的目标候选框;利用二分类器减少目标候选框中的简单背景样本,并利用多任务损失函数对二分类器、多类别分类器和边界框回归器进行联合优化。本发明基于深度卷积神经网络提取图像特征,利用多路径密集特征融合方法改善特征表达能力,构建了用于目标检测的全卷积网络,提出了减少冗余简单背景样本和多任务损失联合优化的策略,提高了算法的检测精度,获得了良好的目标检测结果。

    利用训练样本及折中度量的3D卷积神经网络构建方法

    公开(公告)号:CN107729993A

    公开(公告)日:2018-02-23

    申请号:CN201711033085.3

    申请日:2017-10-30

    CPC classification number: G06N3/0454

    Abstract: 本发明涉及一种利用训练样本及折中度量的3D卷积神经网络构建方法,其技术特点是:构造孪生结构的3D卷积神经网络;设置网络的损失函数,该损失函数由正样本损失、负样本损失及正则化损失构成,并在正则化损失中结合了马氏距离和欧氏距离;使用softmax损失函数,使用视频序列形式的数据集对网络进行预训练;构造正样本对和负样本对,对图像进行预处理和分割;有选择地利用训练样本对网络进行训练。本发明设计合理,其有选择地使用训练样本来提高训练效率并抑制过拟合,同时,在对特征进行度量时对欧氏距离和马氏距离进行权衡,从而构建3D卷积神经网络模型,试验表明本发明构建的模型及训练策略使得系统整体匹配率大大提升。

    基于图的协同低高级特征的视频显著性检测方法

    公开(公告)号:CN105491370A

    公开(公告)日:2016-04-13

    申请号:CN201510799543.9

    申请日:2015-11-19

    Abstract: 本发明涉及一种基于图的协同低高级特征的视频显著性检测方法,属于视频检测技术领域,其技术特点是:使用改进的随机行走算法模拟人眼运动进行视频显著性检测。该方法从视频流中提取低级特征与高级特征,以超像素为基本单元,利用低级特征获得空域转移概率矩阵和时域重启矩阵,以边界优先作为一种高级特征获得基于边界先验的重启矩阵。将两种重启矩阵与空域转移概率矩阵相结合到重启性随机行走算法的框架中获得时空域显著性图。本文将算法在两个公开数据库上进行了测试,实验结果表明该方法优于其它显著性检测算法。本发明设计合理,利用低级特征和高级特征构建重启性随机行走的框架,获得了与人眼注意机制高度相符的显著性检测结果。

    基于图的协同低高级特征的视频显著性检测方法

    公开(公告)号:CN105491370B

    公开(公告)日:2020-09-22

    申请号:CN201510799543.9

    申请日:2015-11-19

    Abstract: 本发明涉及一种基于图的协同低高级特征的视频显著性检测方法,属于视频检测技术领域,其技术特点是:使用改进的随机行走算法模拟人眼运动进行视频显著性检测。该方法从视频流中提取低级特征与高级特征,以超像素为基本单元,利用低级特征获得空域转移概率矩阵和时域重启矩阵,以边界优先作为一种高级特征获得基于边界先验的的重启矩阵。将两种重启矩阵与空域转移概率矩阵相结合到重启性随机行走算法的框架中获得时空域显著性图。本文将算法在两个公开数据库上进行了测试,实验结果表明该方法优于其它显著性检测算法。本发明设计合理,利用低级特征和高级特征构建重启性随机行走的框架,获得了与人眼注意机制高度相符的显著性检测结果。

    基于蚁群的压缩域显著性检测算法

    公开(公告)号:CN105472380A

    公开(公告)日:2016-04-06

    申请号:CN201510799512.3

    申请日:2015-11-19

    Abstract: 本发明属于视频显著性检测领域,具体地说,涉及基于蚁群的压缩于显著性检测算法,其技术特点是:将视频帧划分为块并建模成一个图;从压缩码流中提取每个节点的时域和空域特征,构建时空域启发矩阵;使用蚁群算法,根据时空域启发矩阵分别获得时空域显著性图;根据人眼视觉特性和时空域显著性图的特征,自适应融合时域和空域显著性图像,得到图像显著区域。本发明设计合理,其利用蚁群算法的正反馈机制和贪婪启发搜索机制,在寻找全局最优解上更有优势,时空域信息结合更符合人眼视觉规律,自适应融合方式使得最终检测效果更加符合人眼主观感知质量。同时,本发明不依赖于视频内容变化以及编码时参数设置的影响,具有良好的鲁棒性以及可扩展性。

    基于结构相似度的高效视频编码感知码率控制优化方法

    公开(公告)号:CN103634601B

    公开(公告)日:2017-01-18

    申请号:CN201310632139.3

    申请日:2013-12-02

    Abstract: 一种基于结构相似度的高效视频编码感知码率控制优化方法,包括以下步骤:在进行最大编码单元级的码率分配时,利用结构相似度作为图像失真的评价标准计算图像最大编码单元的失真,并利用其代替高效视频编码器编码端码率分配中的图像失真来计算码率控制R-λ模型中最大编码单元级码率分配的权重;在进行模式判决前,利用结构相似度作为图像失真的评价标准计算图像失真,并用其替代高效视频编码器编码端率失真判决中的编码图像的失真。本发明设计合理,使码率分配更加高效、准确,同时在相同码率情况下提高了编码图像的感知视觉质量;在目标码率相同的情况下能提高视频主观质量,或在相同的结构相似度情况下平均能实现12%的码率减少。

    基于生成式对抗网络模型的数据增强行人再识别方法

    公开(公告)号:CN110188835B

    公开(公告)日:2021-03-16

    申请号:CN201910483958.3

    申请日:2019-06-05

    Abstract: 本发明涉及一种基于生成式对抗网络模型的数据增强行人再识别方法,包括使用Mask‑RCNN图像分割算法分割出图像中行人的掩膜图像;结合掩膜图像和手工标注行人属性,训练一个端到端的改进星形生成式对抗网络,从一个摄像头下的真实行人图像生成任何数量摄像头下的假训练图像;使用训练好的改进星形生成式对抗网络生成所有真实图像对应的所有相机域的假训练图像;将真实图像和假训练图像一起送入行人再识别模型,计算行人图像间距离并完成行人再识别功能。本发明设计合理,利用生成式对抗网络生成更多的训练样本,同时生成的图像背景能够有效地表示相对应摄像头下的真实场景,有效提高行人再识别模型的鲁棒性和判决能力,有效提高了行人再识别的准确率。

Patent Agency Ranking