-
公开(公告)号:CN103544503B
公开(公告)日:2016-09-21
申请号:CN201310566006.0
申请日:2013-11-14
Applicant: 中国科学院自动化研究所
IPC: G06K9/62
Abstract: 本发明公开了一种基于多实例马尔科夫模型的行为识别方法。该方法包括以下步骤:对每个视频提取局部特征,用一个局部视频块的特征直方图来表示行为的某个局部运动;通过随机采样的方式得到许多局部视频块,这些局部视频块将形成多个马尔科夫链,这些马尔科夫链表示为某些局部运动在时间上的连续动作;在多实例学习的框架下,模型选择最具有判别性能的马尔科夫链表示行为;测试时,以同样的方式构成多个马尔科夫链表示视频,然后计算出这些马尔科夫链的分数,大于某个阈值为这种行为,反之不属于这种行为。本发明通过多实例马尔科夫模型,达到复杂场景下行为识别的目的,并可以减少对视频的标注。
-
公开(公告)号:CN103473538B
公开(公告)日:2016-09-21
申请号:CN201310432350.0
申请日:2013-09-22
Applicant: 中国科学院自动化研究所
Abstract: 本发明公开了一种基于样例迁移学习的人体检测方法,该方法包括以下步骤:提取训练集中正样本和负样本的多维人体特征;利用支持向量机进行训练,得到初始人体检测器;将人体检测器划分为多个小网格,每个网格代表一个小部件,并用相应网格里的权重来表示这个部件;对于网格权重进行更新;采用多尺度滑动框扫描的方式对于待检测图像进行人体检测,得到人体检测结果。本发明中的检测器能够自适应的进行结构调整与测试框里的样例的结构进行匹配,并将匹配的损失计入得分函数中,因此本发明方法能够自适应地对每个样例进行结构迁移,可以处理人体的形变等情况。
-
公开(公告)号:CN103336961B
公开(公告)日:2016-06-29
申请号:CN201310308807.7
申请日:2013-07-22
Applicant: 中国科学院自动化研究所
Abstract: 本发明公开了一种交互式自然场景文本检测方法,该方法首先在场景图片中标记出感兴趣文本所在区域,即在文本上画一条线;根据这条线从原图中选取一个扩展区域,在扩展区域中进行边缘检测,对边缘检测结果进行连通域标记,再对标记结果的边界进行投影得到边缘文本区域;然后对这个区域分块二值化、连通域标记和投影操作,得到粗略文本区域;最后对粗略文本区域进行分块二值化和反色的二值化操作,对两种二值化结果分别进行连通域标记、去除各种噪声、边界投影和连通域数目确定,根据两种二值图像的连通域数目确定图片极性,再对连通域进行融合得到精确的文本区域。本方法具有局部空间自适应性,对自然场景图片中背景复杂的文本块有很好的检测效果。
-
公开(公告)号:CN104573663A
公开(公告)日:2015-04-29
申请号:CN201510023529.X
申请日:2015-01-16
Applicant: 中国科学院自动化研究所
CPC classification number: G06K9/00852 , G06K9/6269
Abstract: 本发明是一种基于鉴别性笔画库的英文场景文字识别方法,其包括步骤:1、基于关键点标注的笔画子检测器学习;2、笔画子检测器响应区域的界定;3、鉴别性笔画选取;4、特征提取和文字分类器的训练。本发明参考物体库的思路,通过标记的关键点来为笔画子检测器收集训练样本,并且为每一个文字笔画子检测器设定特定的响应区域,既可以减轻特征抽取的计算负担,又增强了文字分类器的鉴别能力。
-
公开(公告)号:CN104318215A
公开(公告)日:2015-01-28
申请号:CN201410583974.7
申请日:2014-10-27
Applicant: 中国科学院自动化研究所
CPC classification number: G06K9/00221 , G06K9/6232
Abstract: 本发明一种基于域鲁棒卷积特征学习的交叉视角人脸识别方法,包括步骤S1:从源域和目标域人脸集中采集多个人脸图像组成虚拟域人脸集;步骤S2:训练出源域、虚拟域和目标域的卷积深度神经网络;分别组成源域、目标域人脸集的人脸图像的卷积特征;步骤S3:建立源视角映射矩阵和目标视角映射矩阵,获得源域、目标域人脸集的人脸图像的卷积特征在映射空间中相应的源域、目标域新人脸特征值;步骤S4:优化源视角映射矩阵和目标视角映射矩阵;步骤S5:计算测试人脸图片的卷积特征并输入映射矩阵,得到并在一个新人脸特征值与多个新人脸特征之间的多个距离中选择最小距离对应的测试源视角人脸图像的身份作为测试目标视角人脸图像的身份。
-
公开(公告)号:CN103345623A
公开(公告)日:2013-10-09
申请号:CN201310290428.X
申请日:2013-07-11
Applicant: 中国科学院自动化研究所
Abstract: 本发明公开了一种基于鲁棒相对属性的行为识别方法。该方法包括以下步骤:提取视频样本库中每个动作视频样本的特征向量;设定对应于多种人体行为的多个人体运动属性,以及在每个人体运动属性下,每两个代表人体行为的动作视频,即动作视频对之间的关系;将所述动作视频对之间的关系作为输入,利用排序支持向量机进行训练,得到训练模型;利用梯度下降法求解所述排序支持向量机,得到所述排序支持向量机的参数向量,进而得到最优训练模型;利用得到的最优训练模型对每个待测试的动作视频进行人体行为识别,得到人体行为识别结果。实验证明,本发明方法能够提高人体行为识别的鲁棒性。
-
公开(公告)号:CN101814147B
公开(公告)日:2012-04-25
申请号:CN201010144474.5
申请日:2010-04-12
Applicant: 中国科学院自动化研究所
IPC: G06K9/66
Abstract: 本发明是一种实现场景图像的分类方法,该方法采用两级分类器对场景图像进行分类,第一级分类器利用全局结构信息特征得到候选类别,并通过分类结果判定相似类别对,第二级分类器则利用局部纹理信息特征区分相似类别,采用分类器的级联综合利用场景图像的全局结构信息特征和局部纹理信息特征,使得该方法做到不同场景类别鲁棒分类,相似场景类别有效区分。
-
公开(公告)号:CN101872475B
公开(公告)日:2012-03-28
申请号:CN200910082084.7
申请日:2009-04-22
Applicant: 中国科学院自动化研究所
Abstract: 本发明为一种扫描文档图像配准的方法,步骤如下:由改进的特征点检测、旋转参数粗估计、特征点粗匹配、误匹配特征点剔除、精细匹配共五个步骤:对于标准扫描文档图像和待匹配扫描文档图像采用改进的特征点检测算法检测特征点,由特征点的位置估计待匹配扫描文档图像相对与标准扫描文档图像的粗步旋转角度,对于标准图像和经过粗步旋转后的扫描文档图像中的特征点用归一化相关法计算匹配特征点对,并用改进随机采样一致性鲁棒算法剔除误匹配,通过八邻域搜索得到精确的匹配点对的位置,计算标准扫描文档图像与粗步旋转后的待匹配扫描文档图像间的匹配参数,将参数作用于粗步旋转后的待匹配扫描文档图像得到配准图像。
-
公开(公告)号:CN102332097A
公开(公告)日:2012-01-25
申请号:CN201110322549.9
申请日:2011-10-21
Applicant: 中国科学院自动化研究所
IPC: G06K9/20
Abstract: 本发明公开了一种基于图割的复杂背景文本图像分割方法,其包括步骤:1)将原始文本块图像粗分为子图;2)通过估计每个子图的极性,最终决定整个文本块图像的极性;3)根据文本块图像的极性,结合字符笔画的固有特征,自动提供一些置信度较高的前景背景点作为图割的硬约束;4)对子图施加相应的软约束,用图割将硬约束传播到整个子图,进而分割子图;5)将分割的子图合并获得整体的文本分割图像。本发明方法采用分-合的技术,具有局部空间自适应性,从而可以应对背景不均匀的复杂背景文本块图像;同时,本方法自动为图割提供硬约束,结合软约束将硬约束扩展到整幅子图,因此对背景复杂的文本图像可以取得较好的分割效果。
-
公开(公告)号:CN101833664A
公开(公告)日:2010-09-15
申请号:CN201010151779.9
申请日:2010-04-21
Applicant: 中国科学院自动化研究所
Abstract: 本发明是基于稀疏表达的视频图像文字检测方法,步骤S1,对视频序列重采样,获得并将彩色视频图像进行灰度变换和多尺度变换得到多尺度灰度图像;步骤S2,对多尺度灰度图像用改进Sobel算子进行边缘检测和形态学闭运算,获得并对边缘图像进行边缘密度过滤;通过连通域分析、规则分析获得候选文字区域;步骤S3,对候选文字区域通过垂直投影和水平投影,再对垂直投影图像和水平投影像进行切分得到候选文字行,通过滑动窗口将候选文字行切分为小区域,对小区域提取边缘特征,采用基于稀疏表达的分类方法对每一个小区域分别进行分类,判断小区域是否为文字区域,根据小区域的判断结果,对候选文字行进行判断,得到并输出最终的文字行区域。
-
-
-
-
-
-
-
-
-