-
公开(公告)号:CN104219526A
公开(公告)日:2014-12-17
申请号:CN201410440120.3
申请日:2014-09-01
Applicant: 国家广播电影电视总局广播科学研究院 , 北京邮电大学
IPC: H04N19/154 , H04N17/00
Abstract: 本发明涉及一种基于恰可察感知质量判决准则的HEVC率失真优化算法,其技术特点是:分析每一帧中每个宏块的运动模式及静态纹理特征,获得当前宏块的感知质量类型,得到图像显著区域;计算基于视觉显著性区域的恰可察失真阈值;计算基于恰可察失真模型的感知质量;根据基于恰可察失真模型的感知质量进行率失真优化。本发明设计合理,其采用基于恰可察感知质量判决准则进行HEVC率失真优化,能够克服均方误差MSE作为衡量视频失真评价标准的不足,使得最终的编码效果更加符合人眼的主观感知质量,同时,在主观质量不降低的前提下容忍更多的噪声,去除不必要的感知冗余,从而提高了压缩效率,降低了编码后文件的码率。
-
公开(公告)号:CN104219526B
公开(公告)日:2017-05-24
申请号:CN201410440120.3
申请日:2014-09-01
Applicant: 国家广播电影电视总局广播科学研究院 , 北京邮电大学
IPC: H04N19/154 , H04N17/00
Abstract: 本发明涉及一种基于恰可察感知质量判决准则的HEVC率失真优化算法,其技术特点是:分析每一帧中每个宏块的运动模式及静态纹理特征,获得当前宏块的感知质量类型,得到图像显著区域;计算基于视觉显著性区域的恰可察失真阈值;计算基于恰可察失真模型的感知质量;根据基于恰可察失真模型的感知质量进行率失真优化。本发明设计合理,其采用基于恰可察感知质量判决准则进行HEVC率失真优化,能够克服均方误差MSE作为衡量视频失真评价标准的不足,使得最终的编码效果更加符合人眼的主观感知质量,同时,在主观质量不降低的前提下容忍更多的噪声,去除不必要的感知冗余,从而提高了压缩效率,降低了编码后文件的码率。
-
公开(公告)号:CN104410905A
公开(公告)日:2015-03-11
申请号:CN201410459335.X
申请日:2014-09-10
Applicant: 中国人民解放军信息工程大学 , 国家广播电影电视总局广播科学研究院
IPC: H04N21/442 , H04N21/44
CPC classification number: H04N21/44008 , H04N21/44236
Abstract: 本发明公开了一种IP视频实时监控方法与系统,主要用于互联网视频传播的内容校验与管控,具体方法为:将视频文件进行预先特征提取并保存到特征库中;系统串接前端通过其所在的互联网线路,利用粗特征匹配获取到样本视频数据推送到视频特征比对单元;视频特征比对单元将样本视频数据通过协议还原和特征提取后,与视频特征库中的母本特征进行比对,将结果连同视频流信息通知管理单元;管理单元结合用户处理策略和比对结果,生成对视频数据流的精确特征配置信息,反馈到串接前端单元,从而完成了对实际互联网视频流的在线处理,本发明利用视频内容特征提取的方法,结合互联网线路串接管控手段,实现了对互联网视频传播内容级实时线速管控。
-
公开(公告)号:CN104036280A
公开(公告)日:2014-09-10
申请号:CN201410282739.6
申请日:2014-06-23
Applicant: 国家广播电影电视总局广播科学研究院
Abstract: 本发明涉及一种基于感兴趣区域和聚类相结合的视频指纹方法,其技术特点是包括以下步骤:在视频指纹提取阶段,将视频感兴趣区域作为提取视频指纹的基本单元,采用基于聚类算法去除视频指纹的时域冗余特征;在视频指纹匹配阶段,采用多个视频指纹距离平均值方法的进行视频指纹匹配。本发明从抵御空域和时域视频处理两方面来提升视频指纹的鲁棒性,一方面通过使用感兴趣区域作为视频指纹提取基本单元,获得空域上对于多种空域视频处理鲁棒性并降低了视频指纹提取时间;另一方面对同一视频镜头之内帧的特征进行聚类,在获得对于多种时域视频处理的鲁棒性的同时减小了视频指纹的数据量,同时,从提高余弦相似度判决阈值的稳定性上来提高匹配精度。
-
公开(公告)号:CN104410905B
公开(公告)日:2018-10-09
申请号:CN201410459335.X
申请日:2014-09-10
Applicant: 中国人民解放军信息工程大学 , 国家广播电影电视总局广播科学研究院
IPC: H04N21/442 , H04N21/44
Abstract: 本发明公开了一种IP视频实时监控方法与系统,主要用于互联网视频传播的内容校验与管控,具体方法为:将视频文件进行预先特征提取并保存到特征库中;系统串接前端通过其所在的互联网线路,利用粗特征匹配获取到样本视频数据推送到视频特征比对单元;视频特征比对单元将样本视频数据通过协议还原和特征提取后,与视频特征库中的母本特征进行比对,将结果连同视频流信息通知管理单元;管理单元结合用户处理策略和比对结果,生成对视频数据流的精确特征配置信息,反馈到串接前端单元,从而完成了对实际互联网视频流的在线处理,本发明利用视频内容特征提取的方法,结合互联网线路串接管控手段,实现了对互联网视频传播内容级实时线速管控。
-
公开(公告)号:CN109614853B
公开(公告)日:2023-05-05
申请号:CN201811273872.X
申请日:2018-10-30
Applicant: 国家新闻出版广电总局广播科学研究院 , 北京邮电大学
IPC: G06N3/045 , G06N3/0464 , G06N3/082 , G06V10/82 , G06V40/10
Abstract: 本发明涉及一种基于身体结构划分的双线性行人再识别网络构建方法,包括以下步骤:对原始行人图像进行身体结构分块得到多个结构子框,将多个子框组合成新的行人图像,构造结构框预测子网络;设置加权的局部损失函数来训练该结构框预测子网络;构造两个子网络,分别以原始行人图像和重组后行人图像作为输入,对应地提取全局行人特征和局部行人特征;设置双线性融合层,并将其作为全局特征和局部特征的融合层,得到最终的行人特征表示;对整体网络进行训练,得到基于身体结构划分的双线性行人再识别模型。本发明结合整体特征和局部特征,充分利用了身体结构信息,通过双线性融合方法获得更具判别力的行人特征,使得系统整体匹配准确率大大提升。
-
公开(公告)号:CN107563381B
公开(公告)日:2020-10-23
申请号:CN201710816619.3
申请日:2017-09-12
Applicant: 国家新闻出版广电总局广播科学研究院 , 北京邮电大学
Abstract: 本发明设计了一种基于全卷积网络的多特征融合的目标检测方法,其主要技术特点是:搭建具有六个卷积层组的全卷积神经网络;利用卷积神经网络的前五组卷积层提取图像特征,并将其输出进行融合,形成融合特征图;对融合后的特征图进行卷积处理,直接产生固定数目的不同大小的目标边框;计算卷积神经网络生成的目标边框与真实边框之间的分类误差与定位误差,利用随机梯度下降法降低训练误差,得到最终训练模型的参数,最后进行测试得到目标检测结果。本发明利用了深度卷积网络对目标的强大的表示能力,构建了用于目标检测的全卷积神经网络,提出了新的融合特征方法,提高了算法的检测速度和精度,获得了良好的目标检测结果。
-
公开(公告)号:CN110188835A
公开(公告)日:2019-08-30
申请号:CN201910483958.3
申请日:2019-06-05
Applicant: 国家广播电视总局广播电视科学研究院 , 北京邮电大学
Abstract: 本发明涉及一种基于生成式对抗网络模型的数据增强行人再识别方法,包括使用Mask-RCNN图像分割算法分割出图像中行人的掩膜图像;结合掩膜图像和手工标注行人属性,训练一个端到端的改进星形生成式对抗网络,从一个摄像头下的真实行人图像生成任何数量摄像头下的假训练图像;使用训练好的改进星形生成式对抗网络生成所有真实图像对应的所有相机域的假训练图像;将真实图像和假训练图像一起送入行人再识别模型,计算行人图像间距离并完成行人再识别功能。本发明设计合理,利用生成式对抗网络生成更多的训练样本,同时生成的图像背景能够有效地表示相对应摄像头下的真实场景,有效提高行人再识别模型的鲁棒性和判决能力,有效提高了行人再识别的准确率。
-
公开(公告)号:CN107729993A
公开(公告)日:2018-02-23
申请号:CN201711033085.3
申请日:2017-10-30
Applicant: 国家新闻出版广电总局广播科学研究院 , 北京邮电大学
IPC: G06N3/04
CPC classification number: G06N3/0454
Abstract: 本发明涉及一种利用训练样本及折中度量的3D卷积神经网络构建方法,其技术特点是:构造孪生结构的3D卷积神经网络;设置网络的损失函数,该损失函数由正样本损失、负样本损失及正则化损失构成,并在正则化损失中结合了马氏距离和欧氏距离;使用softmax损失函数,使用视频序列形式的数据集对网络进行预训练;构造正样本对和负样本对,对图像进行预处理和分割;有选择地利用训练样本对网络进行训练。本发明设计合理,其有选择地使用训练样本来提高训练效率并抑制过拟合,同时,在对特征进行度量时对欧氏距离和马氏距离进行权衡,从而构建3D卷积神经网络模型,试验表明本发明构建的模型及训练策略使得系统整体匹配率大大提升。
-
公开(公告)号:CN109190752B
公开(公告)日:2021-07-23
申请号:CN201810841610.2
申请日:2018-07-27
Applicant: 国家新闻出版广电总局广播科学研究院 , 北京邮电大学
Abstract: 本发明涉及一种基于深度学习的全局特征和局部特征的图像语义分割方法,包括以下步骤:在编码端,使用基于深度学习卷积神经网络模型提取图像的基础深度特征,同时根据卷积层的深度将特征分为低层特征和高层特征;应用特征融合模块将低层特征和高层特征融合成增强型的深度特征;在获取深度特征后,将其输入到解码端;以交叉熵损失函数为目标训练网络,使用mIoU评价网络性能。本发明设计合理,其使用深度卷积神经网络模型提取图像的全局和局部特征,充分利用了全局特征和局部特征的互补性,并且利用了堆叠池化层进一步提高性能,有效地提高了图像语义分割地准确率。
-
-
-
-
-
-
-
-
-