-
公开(公告)号:CN106897721A
公开(公告)日:2017-06-27
申请号:CN201710058219.0
申请日:2017-01-23
Applicant: 国家计算机网络与信息安全管理中心
CPC classification number: G06K9/3233 , G06K9/4609 , G06K9/6267
Abstract: 本发明涉及一种局部特征与词袋模型相结合的刚体目标跟踪方法。该方法包括:1)在初始图像中选定感兴趣的目标区域,并在目标区域检测SURF特征;2)为SURF特征构建分类器;3)将词袋模型与局部特征结合,对每个SURF特征点用视觉单词来表达,形成2维尺度旋转不变空间;4)在当前图像到来时,基于SURF特征实现分类器的自适应匹配,并使用2维尺度旋转不变空间内的视觉单词进行协同匹配,形成匹配点对;5)根据得到的匹配点对计算得出运动参数,从而确定当前图像的目标区域,实现目标跟踪。本发明能够对目标区域的局部特征实现准确的描述和匹配,进而保证目标跟踪效果的鲁棒性、稳定性。
-
公开(公告)号:CN107194310A
公开(公告)日:2017-09-22
申请号:CN201710213110.X
申请日:2017-04-01
Applicant: 国家计算机网络与信息安全管理中心
CPC classification number: G06K9/00718 , G06K9/6202 , G06K9/6268
Abstract: 本发明涉及一种基于场景变化分类和在线局部特征匹配的刚体目标跟踪方法,其步骤包括:在初始图像中选定感兴趣的目标区域,在目标区域检测SURF特征;对每个SURF特征建立场景描述向量,通过随机的场景变化实现离线学习,得到每个SURF特征最能够适应的场景分类信息;为每个SURF特征创建分类器;在当前图像到来时,判断当前图像的场景分类,从初始图像中选取最能够适应当前场景的SURF特征,并将其与当前图像检测到的SURF特征进行基于分类器的匹配,形成匹配点对;根据得到的匹配点对计算得出运动参数,从而确定当前图像的目标区域,实现目标跟踪。本发明使跟踪能够保持对视频中感兴趣区域出现连续复杂变化的自适应性。
-
公开(公告)号:CN106778831B
公开(公告)日:2020-04-24
申请号:CN201611064798.1
申请日:2016-11-28
Applicant: 国家计算机网络与信息安全管理中心
Abstract: 本发明涉及一种基于高斯混合模型的刚体目标在线特征分类与跟踪方法。该方法包括以下步骤:1)在初始图像中选定感兴趣的目标区域,并在目标区域检测SURF特征;2)为每个SURF特征创建分类器;3)在新图像到来时,利用分类器对初始图像中的SURF特征与新图像检测到的SURF特征进行匹配,形成匹配点对;在分类器的匹配过程中,采用基于高斯混合模型的在线分类机制判别正样本和负样本;4)根据匹配点对,采用随机采样一致性算法计算得出运动参数,从而确定当前图像的目标区域,实现目标跟踪。本发明能够应对视频中复杂的场景变化,保证跟踪的自适应能力,实现稳定连续、现实可用的目标跟踪。
-
公开(公告)号:CN106778831A
公开(公告)日:2017-05-31
申请号:CN201611064798.1
申请日:2016-11-28
Applicant: 国家计算机网络与信息安全管理中心
Abstract: 本发明涉及一种基于高斯混合模型的刚体目标在线特征分类与跟踪方法。该方法包括以下步骤:1)在初始图像中选定感兴趣的目标区域,并在目标区域检测SURF特征;2)为每个SURF特征创建分类器;3)在新图像到来时,利用分类器对初始图像中的SURF特征与新图像检测到的SURF特征进行匹配,形成匹配点对;在分类器的匹配过程中,采用基于高斯混合模型的在线分类机制判别正样本和负样本;4)根据匹配点对,采用随机采样一致性算法计算得出运动参数,从而确定当前图像的目标区域,实现目标跟踪。本发明能够应对视频中复杂的场景变化,保证跟踪的自适应能力,实现稳定连续、现实可用的目标跟踪。
-
-
-