-
公开(公告)号:CN104281572A
公开(公告)日:2015-01-14
申请号:CN201310271950.3
申请日:2013-07-01
Applicant: 中国科学院计算技术研究所
IPC: G06F17/30
CPC classification number: G06K9/6211 , G06K9/4676 , G06K2209/21
Abstract: 本发明公开了一种基于互信息的目标匹配方法及其系统,该方法包括:步骤1,将查询图像和参考图像的特征拼接在一起;步骤2,将拼接后的特征对按照类别组成对应至类别下的SET特征集合,每个类别对应一个SET特征集合,SET特征集合中包含查询图像与每个类别的参考图像组成的特征对;步骤3,使用互信息表征SET特征集合与其类别标签之间的关系,通过对互信息的计算,得到目标匹配类别。该方法充分利用了gallery中的多张图片信息提高匹配精度和性能。
-
公开(公告)号:CN104200218A
公开(公告)日:2014-12-10
申请号:CN201410406317.5
申请日:2014-08-18
Applicant: 中国科学院计算技术研究所
Abstract: 本发明公开了一种基于时序信息的跨视角动作识别方法及系统,本发明涉及模式识别领域技术。该方法包括检测视频的感兴趣点,提取该感兴趣点的运动强度,该视频包括:源视角视频和目标视角视频;根据该视频的该时序信息将该运动强度进行时序积累,获得该视频的运动特征描述;根据该运动特征描述和该源视角视频的源粗粒度标注信息,对该目标视角视频进行粗粒度标注,获得目标粗粒度标注信息;根据该源粗粒度标注信息和该目标粗粒度标注信息,通过度量学习方法,对该源视角视频和该目标视角视频进行度量学习,获得跨视角度量方法;通过该跨视角度量方法对该目标视角视频中的动作进行动作分类,以完成跨视角的动作识别。
-
公开(公告)号:CN101894276B
公开(公告)日:2012-09-05
申请号:CN201010195802.4
申请日:2010-06-01
Applicant: 中国科学院计算技术研究所
IPC: G06K9/66
CPC classification number: G06K9/00335 , G06K9/4671 , G06K2009/3291
Abstract: 本发明提供一种人体动作识别的训练方法,包括:从视频文件中提取时空兴趣点;将所有时空兴趣点根据其所包含的特征描述子量化到相应的视频单词上,并为视频单词生成统计直方图;根据视频单词所在时空邻域内的时空上下文信息得到该视频单词所在时空邻域内的其它视频单词,由该视频单词与某一满足时空约束的其它视频单词形成时空视频词组;对视频单词所在时空邻域内的时空上下文做聚类,得到语境单词,由视频单词与语境单词形成时空视频单词团体;从时空视频词组中选择代表性时空视频词组,从时空视频单词团体中选择代表性时空视频单词团体;利用视频单词、代表性时空视频词组、代表性时空视频单词团体中的一种特征或将多种特征融合后的结果训练分类器。
-
公开(公告)号:CN102883179B
公开(公告)日:2015-05-27
申请号:CN201110194206.9
申请日:2011-07-12
Applicant: 中国科学院计算技术研究所
IPC: H04N17/00
Abstract: 本发明提供一种视频质量客观评价方法,包括:10)在相同时间点切分源视频和待测视频,得到视频片段;20)分别提取来自源视频和待测视频的视频片段中视频帧的视频块,利用时空纹理特征计算对应视频块的相似度,其中所述时空纹理特征体现了像素之间的像素差异;30)根据对应视频块的相似度计算来自待测视频的视频帧的质量分数;40)根据来自待测视频的视频帧的质量分数计算来自待测视频的视频片段的质量值,进而计算待测视频的质量分数。上述方法所获得的质量分数更加符合人的主观感知。
-
公开(公告)号:CN102300094A
公开(公告)日:2011-12-28
申请号:CN201110262029.3
申请日:2011-09-06
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供了一种视频编码方法,包括:1)根据每个宏块的受关注程度确定待选编码模式编码的视频与原始视频之间的视频失真D;2)根据视频失真D计算率失真优化(RDO)模型;3)根据RDO模型进行视频编码。本发明的上述方法考虑了人的主观视觉特性,能够在保证人的主观视频质量的条件下有效降低码率。
-
公开(公告)号:CN106056628B
公开(公告)日:2019-06-18
申请号:CN201610371378.1
申请日:2016-05-30
Applicant: 中国科学院计算技术研究所
IPC: G06T7/246
Abstract: 本发明提出基于深度卷积神经网络特征融合的目标跟踪方法及系统,涉及模式识别技术领域,该方法包括步骤1,通过深度卷积神经网络,获取视频图像中目标的多种特征,通过滤波器方法计算每种特征的特征置信权重,根据特征置信权重,获取目标当前的跟踪目标位置;步骤2,计算每种特征当前帧的预测精度损失,并根据预测精度损失,对每种特征,建立在△t时间内的稳定性模型,通过稳定性模型计算每个特征在当前帧的稳定性,根据每种特征的稳定性及累积的预测精度损失,更新每种特征的置信权重;步骤3,重复步骤1至步骤2完成所有帧的目标跟踪。本发明合理地融合多种特征的跟踪结果,实现鲁棒的目标跟踪。
-
公开(公告)号:CN104200218B
公开(公告)日:2018-02-06
申请号:CN201410406317.5
申请日:2014-08-18
Applicant: 中国科学院计算技术研究所
Abstract: 本发明公开了一种基于时序信息的跨视角动作识别方法及系统,本发明涉及模式识别领域技术。该方法包括检测视频的感兴趣点,提取该感兴趣点的运动强度,该视频包括:源视角视频和目标视角视频;根据该视频的该时序信息将该运动强度进行时序积累,获得该视频的运动特征描述;根据该运动特征描述和该源视角视频的源粗粒度标注信息,对该目标视角视频进行粗粒度标注,获得目标粗粒度标注信息;根据该源粗粒度标注信息和该目标粗粒度标注信息,通过度量学习方法,对该源视角视频和该目标视角视频进行度量学习,获得跨视角度量方法;通过该跨视角度量方法对该目标视角视频中的动作进行动作分类,以完成跨视角的动作识别。
-
公开(公告)号:CN102883179A
公开(公告)日:2013-01-16
申请号:CN201110194206.9
申请日:2011-07-12
Applicant: 中国科学院计算技术研究所
IPC: H04N17/00
Abstract: 本发明提供一种视频质量客观评价方法,包括:10)在相同时间点切分源视频和待测视频,得到视频片段;20)分别提取来自源视频和待测视频的视频片段中视频帧的视频块,利用时空纹理特征计算对应视频块的相似度,其中所述时空纹理特征体现了像素之间的像素差异;30)根据对应视频块的相似度计算来自待测视频的视频帧的质量分数;40)根据来自待测视频的视频帧的质量分数计算来自待测视频的视频片段的质量值,进而计算待测视频的质量分数。上述方法所获得的质量分数更加符合人的主观感知。
-
公开(公告)号:CN101866429B
公开(公告)日:2012-09-05
申请号:CN201010195819.X
申请日:2010-06-01
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供一种多运动目标动作行为识别的训练方法,包括:从视频数据中提取每个运动目标的运动轨迹信息;为运动目标的运动轨迹信息分层,在各个所述层次上为多运动目标动作行为的运动模式建模;综合所述视频中的全局和局部的运动信息对所述运动模式的模型进行特征描述;所述特征至少包括使用高斯过程描述运动轨迹的三维超参数向量;根据特征训练分类器。本发明还提出了多运动目标动作行为识别方法,该方法利用训练方法得到的分类器实现视频中多运动目标动作行为的识别。本发明从概率角度使用高斯过程来表述目标的运动轨迹,从三个粒度层次上对多人行为模式进行建模提取特征,使得对多人行为的表述更符合实际。
-
公开(公告)号:CN101894276A
公开(公告)日:2010-11-24
申请号:CN201010195802.4
申请日:2010-06-01
Applicant: 中国科学院计算技术研究所
IPC: G06K9/66
CPC classification number: G06K9/00335 , G06K9/4671 , G06K2009/3291
Abstract: 本发明提供一种人体动作识别的训练方法,包括:从视频文件中提取时空兴趣点;将所有时空兴趣点根据其所包含的特征描述子量化到相应的视频单词上,并为视频单词生成统计直方图;根据视频单词所在时空邻域内的时空上下文信息得到该视频单词所在时空邻域内的其它视频单词,由该视频单词与某一满足时空约束的其它视频单词形成时空视频词组;对视频单词所在时空邻域内的时空上下文做聚类,得到语境单词,由视频单词与语境单词形成时空视频单词团体;从时空视频词组中选择代表性时空视频词组,从时空视频单词团体中选择代表性时空视频单词团体;利用视频单词、代表性时空视频词组、代表性时空视频单词团体中的一种特征或将多种特征融合后的结果训练分类器。
-
-
-
-
-
-
-
-
-