-
公开(公告)号:CN107590818A
公开(公告)日:2018-01-16
申请号:CN201710794283.5
申请日:2017-09-06
Applicant: 华中科技大学 , 深圳华中科技大学研究院
Abstract: 本发明公开了一种交互式视频分割方法,首先,进行目标轮廓线预估,得到目标物体在当前帧的预估初始轮廓,并在当前帧目标预估轮廓线基础上,通过距离映射得出每个像素点到目标预估轮廓的最短距离,作为该像素点的位置属性。在当前帧每个像素除了三维颜色属性的基础上,加入反映时空约束的位置属性,即每个像素点距离预估目标轮廓的距离值,扩展到高维空间。建立图结构时先将高维空间的每个属性预先划分为多个直方图Bin,然后将帧间平滑项叠加到通过全局概率模型计算得到的数据项中,作为能量函数模型的数据项,最终利用最大流最小割算法得到能量函数模型的解,成功的融入了目标的运动信息,增加了视频分割的时空连续性。
-
公开(公告)号:CN107644429A
公开(公告)日:2018-01-30
申请号:CN201710946156.2
申请日:2017-09-30
Applicant: 华中科技大学 , 深圳华中科技大学研究院
Abstract: 本发明公开了一种基于强目标约束视频显著性的视频分割方法,属于图像处理技术领域。本发明方法在图像显著性的基础上引入了强目标约束,即通过多尺度跟踪算法和光流校正获得目标的位置及尺度约束,通过历史帧分割结果获得目标的颜色约束,计算得到视频显著性结果;对此视频显著性结果做直方图分类操作,获得标签掩图,计算当前帧的前/背景先验概率模型;在当前帧构建基于超像素的时空连续全连接条件随机场模型,使用此先验概率模型定义数据项,结合超像素间的颜色距离、空间距离和边缘关系定义帧内平滑项和帧间平滑项,并使用快速高维高斯滤波算法进行优化求解,完成视频目标分割。本发明方法有效的提高了视频分割的准确性和时间效率。
-
公开(公告)号:CN107644429B
公开(公告)日:2020-05-19
申请号:CN201710946156.2
申请日:2017-09-30
Applicant: 华中科技大学 , 深圳华中科技大学研究院
Abstract: 本发明公开了一种基于强目标约束视频显著性的视频分割方法,属于图像处理技术领域。本发明方法在图像显著性的基础上引入了强目标约束,即通过多尺度跟踪算法和光流校正获得目标的位置及尺度约束,通过历史帧分割结果获得目标的颜色约束,计算得到视频显著性结果;对此视频显著性结果做直方图分类操作,获得标签掩图,计算当前帧的前/背景先验概率模型;在当前帧构建基于超像素的时空连续全连接条件随机场模型,使用此先验概率模型定义数据项,结合超像素间的颜色距离、空间距离和边缘关系定义帧内平滑项和帧间平滑项,并使用快速高维高斯滤波算法进行优化求解,完成视频目标分割。本发明方法有效的提高了视频分割的准确性和时间效率。
-
公开(公告)号:CN107590818B
公开(公告)日:2019-10-25
申请号:CN201710794283.5
申请日:2017-09-06
Applicant: 华中科技大学 , 深圳华中科技大学研究院
Abstract: 本发明公开了一种交互式视频分割方法,首先,进行目标轮廓线预估,得到目标物体在当前帧的预估初始轮廓,并在当前帧目标预估轮廓线基础上,通过距离映射得出每个像素点到目标预估轮廓的最短距离,作为该像素点的位置属性。在当前帧每个像素除了三维颜色属性的基础上,加入反映时空约束的位置属性,即每个像素点距离预估目标轮廓的距离值,扩展到高维空间。建立图结构时先将高维空间的每个属性预先划分为多个直方图Bin,然后将帧间平滑项叠加到通过全局概率模型计算得到的数据项中,作为能量函数模型的数据项,最终利用最大流最小割算法得到能量函数模型的解,成功的融入了目标的运动信息,增加了视频分割的时空连续性。
-
公开(公告)号:CN107767405B
公开(公告)日:2020-01-03
申请号:CN201710910983.6
申请日:2017-09-29
Applicant: 华中科技大学
Abstract: 本发明公开了一种融合卷积神经网络的核相关滤波目标跟踪方法,属于图像处理技术领域。首先,读取视频的第一帧,提取目标的特征,同时给定理想化输出,训练得到KCF模板;然后,读取下一帧图像,计算KCF算法的跟踪结果,得到KCF响应图和目标结果KCF_Box,并计算KCF算法的PSR值;接着判断PSR的值是否大于算法阈值,是则不需要进行GOTURN算法的计算,当前帧的跟踪结果取KCF算法的结果KCF_Box;否则进行GOTURN算法的计算,当前帧的跟踪结果取GOTURN算法的跟踪结果GOTURN_Box;最后,进行KCF算法的模板更新和GOTURN算法的网络输入更新。本发明以旁瓣比为桥梁,提出了一种KCF算法和GOTURN算法的融合方式,保证了目标跟踪结果的准确性。
-
公开(公告)号:CN107767405A
公开(公告)日:2018-03-06
申请号:CN201710910983.6
申请日:2017-09-29
Applicant: 华中科技大学
Abstract: 本发明公开了一种融合卷积神经网络的核相关滤波目标跟踪方法,属于图像处理技术领域。首先,读取视频的第一帧,提取目标的特征,同时给定理想化输出,训练得到KCF模板;然后,读取下一帧图像,计算KCF算法的跟踪结果,得到KCF响应图和目标结果KCF_Box,并计算KCF算法的PSR值;接着判断PSR的值是否大于算法阈值,是则不需要进行GOTURN算法的计算,当前帧的跟踪结果取KCF算法的结果KCF_Box;否则进行GOTURN算法的计算,当前帧的跟踪结果取GOTURN算法的跟踪结果GOTURN_Box;最后,进行KCF算法的模板更新和GOTURN算法的网络输入更新。本发明以旁瓣比为桥梁,提出了一种KCF算法和GOTURN算法的融合方式,保证了目标跟踪结果的准确性。
-
公开(公告)号:CN107563323A
公开(公告)日:2018-01-09
申请号:CN201710764078.4
申请日:2017-08-30
Applicant: 华中科技大学
Abstract: 本发明公开了一种视频人脸特征点定位方法,应用于图像处理技术领域,所述方法主要包括三个部分:第一部分是对视频的第一帧进行特征点定位,以获取左右眼球以及两个嘴角点和上下嘴唇的中心这六个点的初始位置信息,方便在后续视频帧中对这些点进行跟踪;第二部分是对后续视频的每一帧采用大位移光流技术来建立图像的可变光流场,以跟踪第一部分初始化的六个点在当前帧的位置;第三部分是使用第二部分跟踪到的六个点的位置信息进行特征点定位。通过本发明对于丰富表情仍然能够准确的定位特征点。
-
-
-
-
-
-