-
公开(公告)号:CN109190752B
公开(公告)日:2021-07-23
申请号:CN201810841610.2
申请日:2018-07-27
Applicant: 国家新闻出版广电总局广播科学研究院 , 北京邮电大学
Abstract: 本发明涉及一种基于深度学习的全局特征和局部特征的图像语义分割方法,包括以下步骤:在编码端,使用基于深度学习卷积神经网络模型提取图像的基础深度特征,同时根据卷积层的深度将特征分为低层特征和高层特征;应用特征融合模块将低层特征和高层特征融合成增强型的深度特征;在获取深度特征后,将其输入到解码端;以交叉熵损失函数为目标训练网络,使用mIoU评价网络性能。本发明设计合理,其使用深度卷积神经网络模型提取图像的全局和局部特征,充分利用了全局特征和局部特征的互补性,并且利用了堆叠池化层进一步提高性能,有效地提高了图像语义分割地准确率。
-
公开(公告)号:CN108960141B
公开(公告)日:2021-04-23
申请号:CN201810721706.5
申请日:2018-07-04
Applicant: 国家新闻出版广电总局广播科学研究院 , 北京邮电大学
Abstract: 本发明涉及一种基于增强型深度卷积神经网络的行人再识别方法,使用基础深度学习卷积神经网络模型提取行人图像的基础深度特征,同时使用传统手动特征提取方法提取行人图像的手动特征并降维;应用特征重建模块将基础深度特征和手动特征融合成增强型深度特征;通过特征比较预测两张图像中行人是否为同一个人,联合使用分类损失函数和验证损失函数对输入图像进行分类和异同验证,以最小化联合损失为目标来训练网络,使得网络生成更有判别力的行人图像特征。本发明充分利用了手动特征和深度特征之间的互补性,提出了联合使用分类损失和验证损失函数用于监督网络训练的策略,获得了良好的性能,有效地提高行人再识别准确率。
-
公开(公告)号:CN109635636A
公开(公告)日:2019-04-16
申请号:CN201811273875.3
申请日:2018-10-30
Applicant: 国家新闻出版广电总局广播科学研究院 , 北京邮电大学
CPC classification number: G06K9/00362 , G06K9/629
Abstract: 本发明涉及一种基于属性特征和加权的分块特征相融合的行人再识别方法,包括以下步骤:构造属性特征提取子网络,该子网络融合了手动提取的特征和深度神经网络提取的特征;采用设置加权的交叉熵损失函数来训练属性特征提取子网络;构造基于分块的特征提取子网络,该网络可融合多个分块的深度特征;训练基于分块的特征提取子网络,设置局部损失函数的加权融合层,自主学习不同的权重,进而赋予各局部损失函数;对整体网络进行训练,提取融合了属性特征和基于分块的深度特征的行人特征表示。本发明设计合理,其有效结合了属性特征和深度特征,在损失函数计算方法上进行优化,获得了很好的行人再识别结果,使得系统整体匹配准确率大大提升。
-
公开(公告)号:CN108960140A
公开(公告)日:2018-12-07
申请号:CN201810721690.8
申请日:2018-07-04
Applicant: 国家新闻出版广电总局广播科学研究院 , 北京邮电大学
CPC classification number: G06K9/00362 , G06K9/6256 , G06K9/6267 , G06N3/0454
Abstract: 本发明涉及一种基于多区域特征提取和融合的行人再识别方法,利用残差网络提取全局特征,并在训练阶段增加一个用于全局特征提取和优化的行人身份分类模块;构造用于局部特征提取的多区域特征提取子网络,并将各局部特征进行加权融合;设置包括分类模块损失和特征融合模块损失的损失函数;对网络进行训练,得到模型提取查询集和测试集的特征向量;在度量阶段,利用交叉近邻方法对特征距离进行重新度量。本发明设计合理,有效结合了全局特征和局部特征,在距离度量方法上进行优化,获得了很好的行人再识别结果,使得系统整体匹配准确率大大提升。
-
公开(公告)号:CN107316058A
公开(公告)日:2017-11-03
申请号:CN201710450327.2
申请日:2017-06-15
Applicant: 国家新闻出版广电总局广播科学研究院 , 北京邮电大学
CPC classification number: G06K9/629 , G06K9/4604 , G06K9/6227 , G06K9/6256 , G06N3/04
Abstract: 本发明涉及一种通过提高目标分类和定位准确度改善目标检测性能的方法,其主要技术特点是:根据卷积神经网络架构提取图像特征,并选择卷积层前M层输出进行特征融合,形成多特征的特征图;在卷积层M上进行网格划分,在每个网络中预测固定数目和大小的目标候选框;将候选框映射到特征图上进行裁剪,然后将裁剪结果进行多特征连接;将上述结果通过全连接层后,通过Softmax分类算法对图像特征进行分类,并用重叠面积损失函数进行在线迭代回归定位,得到最终目标检测的结果。本发明设计合理,通过卷积神经网络提取特征,并对图像特征进行多层融合,最后使用Softmax分类算法对图像特征进行分类,并采用重叠面积损失函数进行定位,获得了良好的目标检测结果。
-
公开(公告)号:CN107292259A
公开(公告)日:2017-10-24
申请号:CN201710450306.0
申请日:2017-06-15
Applicant: 国家新闻出版广电总局广播科学研究院 , 北京邮电大学
Abstract: 本发明涉及一种基于AdaRank的深度特征和传统特征的集成方法,其主要技术特点是:将图像数据进行分割,针对不同部分分别构造并训练深度卷及神经网络,用以获得深度特征;从行人再识别数据中提取传统特征,包括LOMO特征、ELF6特征、Hog3D特征;选取如下三种度量学习方法:KISSME、kLFDA和LMNN;将所有特征与三种度量学习方法进行组合张成笛卡尔乘积,得到一系列弱排序器;利用AdaRank算法,对弱排序器进行集成学习,最终得到强排序器。本发明设计合理,结合了深度学习、多特征、度量学习、集成学习,通过构造“弱排序器”并进行集成学习,使得系统的整体性能远远高于单一特征和单一度量算法,使得系统整体匹配率大大提升,获得了很好的性能。
-
公开(公告)号:CN109886871B
公开(公告)日:2023-04-07
申请号:CN201910014480.X
申请日:2019-01-07
Applicant: 国家新闻出版广电总局广播科学研究院 , 北京邮电大学
IPC: G06T3/40
Abstract: 本发明涉及一种基于通道注意力机制和多层特征融合的图像超分辨率方法,在残差支路开头,使用基于深度学习的单层卷积层直接提取低分辨率图像的原始特征;使用六个级联的基于通道注意力机制和多层特征融合的卷积循环单元来提取精确的深度特征;通过反卷积层对深度特征进行上采样,并且使用单层卷积层对上采样的特征进行降维,得到高分辨率图像的残差;在映射支路,使用双三次插值方法对低分辨图像进行上采样,得到高分辨率图像的映射;将高分辨率图像的映射和残差逐像素相加得到最终的高分辨率图像。本发明设计合理,充分考虑了特征通道间的差异性,高效地利用了层次化的特征,在取得较高准确率的同时,保持了较快的运行速度。
-
公开(公告)号:CN109886871A
公开(公告)日:2019-06-14
申请号:CN201910014480.X
申请日:2019-01-07
Applicant: 国家新闻出版广电总局广播科学研究院 , 北京邮电大学
IPC: G06T3/40
Abstract: 本发明涉及一种基于通道注意力机制和多层特征融合的图像超分辨率方法,在残差支路开头,使用基于深度学习的单层卷积层直接提取低分辨率图像的原始特征;使用六个级联的基于通道注意力机制和多层特征融合的卷积循环单元来提取精确的深度特征;通过反卷积层对深度特征进行上采样,并且使用单层卷积层对上采样的特征进行降维,得到高分辨率图像的残差;在映射支路,使用双三次插值方法对低分辨图像进行上采样,得到高分辨率图像的映射;将高分辨率图像的映射和残差逐像素相加得到最终的高分辨率图像。本发明设计合理,充分考虑了特征通道间的差异性,高效地利用了层次化的特征,在取得较高准确率的同时,保持了较快的运行速度。
-
公开(公告)号:CN109190626A
公开(公告)日:2019-01-11
申请号:CN201810842201.4
申请日:2018-07-27
Applicant: 国家新闻出版广电总局广播科学研究院 , 北京邮电大学
Abstract: 本发明涉及一种基于深度学习的多路径特征融合的语义分割方法,包括以下步骤:使用多路径特征融合方法提取图像的基础深度特征;将提取的基础深度特征经过解码端网络,恢复原始图像分辨率信息,并生成分割结果;以交叉熵损失函数为目标训练网络,使用准确率和mIoU评价网络性能。本发明设计合理,其充分考虑了局部信息以及全局信息,在网络中的特征提取端和分类端添加了很多条路径,网络的输出是与原图像分辨率大小一致的分割图,使用图像已有的标签计算分割准确率,以最小化交叉熵损失函数为目标来训练网络,有效地提高了图像语义分割地准确率。
-
公开(公告)号:CN108960141A
公开(公告)日:2018-12-07
申请号:CN201810721706.5
申请日:2018-07-04
Applicant: 国家新闻出版广电总局广播科学研究院 , 北京邮电大学
CPC classification number: G06K9/00362 , G06K9/6247 , G06K9/627
Abstract: 本发明涉及一种基于增强型深度卷积神经网络的行人再识别方法,使用基础深度学习卷积神经网络模型提取行人图像的基础深度特征,同时使用传统手动特征提取方法提取行人图像的手动特征并降维;应用特征重建模块将基础深度特征和手动特征融合成增强型深度特征;通过特征比较预测两张图像中行人是否为同一个人,联合使用分类损失函数和验证损失函数对输入图像进行分类和异同验证,以最小化联合损失为目标来训练网络,使得网络生成更有判别力的行人图像特征。本发明充分利用了手动特征和深度特征之间的互补性,提出了联合使用分类损失和验证损失函数用于监督网络训练的策略,获得了良好的性能,有效地提高行人再识别准确率。
-
-
-
-
-
-
-
-
-