-
公开(公告)号:CN104065932B
公开(公告)日:2019-08-13
申请号:CN201410305768.X
申请日:2014-06-30
Applicant: 东南大学
Abstract: 本发明提出一种基于修正加权二部图的无重叠视域目标匹配方法,涉及计算机视觉领域。本发明将无重叠视域目标匹配问题表示成一个最大后验概率问题,从而将目标观测模型与监控网络时空约束信息结合起来,并通过求解加权二部图的最大权匹配解决最大后验概率问题。针对普通加权二部图构造中容易引入错误匹配的问题,本发明提出了一种基于自适应阈值的修正加权二部图构造方法,从而尽可能地避免在构造加权二部图的过程中引入错误的匹配。针对传统KM方法在处理大规模加权二部图匹配问题时计算量过大的弊端,提出了一种基于MH采样的方法近似求解加权二部图的最大权匹配,从而得到无重叠视域目标匹配关系。
-
公开(公告)号:CN104010168B
公开(公告)日:2017-06-13
申请号:CN201410266226.6
申请日:2014-06-13
Applicant: 东南大学
IPC: H04N7/18 , H04L12/751
Abstract: 本发明提出一种无重叠视域多摄像机监控网络拓扑自适应学习方法,涉及计算机视觉领域。本发明用加权有向图G= 表示监控网络的拓扑。本发明将单摄像机视域下目标的离开、进入位置作为拓扑节点V,并利用混合高斯模型进行建模。本发明提出一种基于联合外表相似度的互关联函数计算方法,并通过互关联函数判断某对节点的连通性,从而得到边集E。对于连通的节点对,通过标准化互关联函数计算转移时间分布。本发明利用节点对的交互信息表示该对节点的转移概率,从而得到权重集合W。本发明提出一种“虚假连接”排除策略排除拓扑中可能的“虚假连接”,并提出拓扑自适应更新策略保证拓扑结构对环境变化具有较强鲁棒性。
-
公开(公告)号:CN102592144A
公开(公告)日:2012-07-18
申请号:CN201210002873.7
申请日:2012-01-06
Applicant: 东南大学
Abstract: 本发明公开了一种基于多摄像机无重叠视域行人匹配方法包括以下步骤:建立混合高斯背景模型;使用背景减除法获得行人目标;提取行人目标的主颜色特征;进行主颜色判别分析;对于疑似匹配目标提取空间纹理特征;使用空间纹理特征进行进一步判别。本发明突破传统的单摄像机视域限制,有效扩大了监控范围。消除大范围监控存在的摄像头盲区,并将时间和空间上分离的目标在不同摄像机中进行匹配。本发明对行人目标姿态变化,环境光照变化具有很强的鲁棒性。
-
公开(公告)号:CN103440645A
公开(公告)日:2013-12-11
申请号:CN201310357510.X
申请日:2013-08-16
Applicant: 东南大学
IPC: G06T7/00
Abstract: 本发明提出了一种基于自适应粒子滤波和稀疏表示的目标跟踪算法,使用改进的自适应粒子滤波技术作为跟踪算法框架,并且利用分块稀疏表示模型建立目标的观测相似度模型,利用自适应分块技术对目标进行分块,构建当前目标状态的结构稀疏直方图,以计算当前目标状态的观测相似度,利用遮挡检测机制检测遮挡,更新目标/背景字典模板以及目标模板直方图,以捕获跟踪过程中目标的外形改变以及环境的变化,利用可变方向乘子法解决稀疏表示中的L1优化问题,提升所述目标跟踪算法的执行速度。本发明对跟踪目标姿态变化,环境光照变化以及遮挡等情况具有很强的鲁棒性。
-
公开(公告)号:CN104010168A
公开(公告)日:2014-08-27
申请号:CN201410266226.6
申请日:2014-06-13
Applicant: 东南大学
IPC: H04N7/18 , H04L12/751
Abstract: 本发明提出一种无重叠视域多摄像机监控网络拓扑自适应学习方法,涉及计算机视觉领域。本发明用加权有向图G= 表示监控网络的拓扑。本发明将单摄像机视域下目标的离开、进入位置作为拓扑节点V,并利用混合高斯模型进行建模。本发明提出一种基于联合外表相似度的互关联函数计算方法,并通过互关联函数判断某对节点的连通性,从而得到边集E。对于连通的节点对,通过标准化互关联函数计算转移时间分布。本发明利用节点对的交互信息表示该对节点的转移概率,从而得到权重集合W。本发明提出一种“虚假连接”排除策略排除拓扑中可能的“虚假连接”,并提出拓扑自适应更新策略保证拓扑结构对环境变化具有较强鲁棒性。
-
公开(公告)号:CN102592144B
公开(公告)日:2014-03-26
申请号:CN201210002873.7
申请日:2012-01-06
Applicant: 东南大学
Abstract: 本发明公开了一种基于多摄像机无重叠视域行人匹配方法包括以下步骤:建立混合高斯背景模型;使用背景减除法获得行人目标;提取行人目标的主颜色特征;进行主颜色判别分析;对于疑似匹配目标提取空间纹理特征;使用空间纹理特征进行进一步判别。本发明突破传统的单摄像机视域限制,有效扩大了监控范围。消除大范围监控存在的摄像头盲区,并将时间和空间上分离的目标在不同摄像机中进行匹配。本发明对行人目标姿态变化,环境光照变化具有很强的鲁棒性。
-
公开(公告)号:CN103440645B
公开(公告)日:2016-04-27
申请号:CN201310357510.X
申请日:2013-08-16
Applicant: 东南大学
IPC: G06T7/00
Abstract: 本发明提出了一种基于自适应粒子滤波和稀疏表示的目标跟踪算法,使用改进的自适应粒子滤波技术作为跟踪算法框架,并且利用分块稀疏表示模型建立目标的观测相似度模型,利用自适应分块技术对目标进行分块,构建当前目标状态的结构稀疏直方图,以计算当前目标状态的观测相似度,利用遮挡检测机制检测遮挡,更新目标/背景字典模板以及目标模板直方图,以捕获跟踪过程中目标的外形改变以及环境的变化,利用可变方向乘子法解决稀疏表示中的L1优化问题,提升所述目标跟踪算法的执行速度。本发明对跟踪目标姿态变化,环境光照变化以及遮挡等情况具有很强的鲁棒性。
-
公开(公告)号:CN104065932A
公开(公告)日:2014-09-24
申请号:CN201410305768.X
申请日:2014-06-30
Applicant: 东南大学
Abstract: 本发明提出一种基于修正加权二部图的无重叠视域目标匹配方法,涉及计算机视觉领域。本发明将无重叠视域目标匹配问题表示成一个最大后验概率问题,从而将目标观测模型与监控网络时空约束信息结合起来,并通过求解加权二部图的最大权匹配解决最大后验概率问题。针对普通加权二部图构造中容易引入错误匹配的问题,本发明提出了一种基于自适应阈值的修正加权二部图构造方法,从而尽可能地避免在构造加权二部图的过程中引入错误的匹配。针对传统KM方法在处理大规模加权二部图匹配问题时计算量过大的弊端,提出了一种基于MH采样的方法近似求解加权二部图的最大权匹配,从而得到无重叠视域目标匹配关系。
-
公开(公告)号:CN102135429B
公开(公告)日:2012-06-13
申请号:CN201010611473.7
申请日:2010-12-29
Applicant: 东南大学
IPC: G01C21/00
Abstract: 本发明公开了一种基于视觉的机器人室内定位导航方法,属于视觉导航领域。该方法是根据二维码的思路,设计了一种简单方便、易于识别、内含绝对位置坐标且具有一定纠错能力的人工路标,将路标设置于天花板上,由安装在机器人上且光轴与天花板垂直的摄像机进行拍摄,再通过图像的阈值分割、连通域提取、轮廓曲线匹配以及路标特征识别一系列步骤定位路标,解析路标中所包含的坐标信息,最终通过机器人的位置估计算法获得机器人当前的绝对位置和航向角。本发明方法减少了遮挡及噪声干扰,大大降低了图像处理方法、时间以及周围环境的复杂度。
-
公开(公告)号:CN102135429A
公开(公告)日:2011-07-27
申请号:CN201010611473.7
申请日:2010-12-29
Applicant: 东南大学
IPC: G01C21/00
Abstract: 本发明公开了一种基于视觉的机器人室内定位导航方法,属于视觉导航领域。该方法是根据二维码的思路,设计了一种简单方便、易于识别、内含绝对位置坐标且具有一定纠错能力的人工路标,将路标设置于天花板上,由安装在机器人上且光轴与天花板垂直的摄像机进行拍摄,再通过图像的阈值分割、连通域提取、轮廓曲线匹配以及路标特征识别一系列步骤定位路标,解析路标中所包含的坐标信息,最终通过机器人的位置估计算法获得机器人当前的绝对位置和航向角。本发明方法减少了遮挡及噪声干扰,大大降低了图像处理方法、时间以及周围环境的复杂度。
-
-
-
-
-
-
-
-
-