-
公开(公告)号:CN103456012B
公开(公告)日:2016-06-01
申请号:CN201310395199.8
申请日:2013-09-03
Applicant: 北京大学深圳研究生院
Abstract: 本发明涉及一种基于最大稳定曲率区域的视觉人手检测跟踪方法及系统,在由人手检测单元和空间条件约束单元以及输入/输出端组成的系统中,其跟踪方法如下:1)采用摄像头提取得到RGB图和/或深度图,通过待跟踪物体的初始位置,得到前景物体和背景物体;2)根据肤色点的连通区域对RGB图进行肤色检测得到人手和/或人脸的候选肤色区域;3)根据深度图中的正向投影对深度图进行最大稳定曲率计算,得到最大稳定曲率区域;4)对所说候选肤色区域和最大稳定曲率区域按照空间约束条件进行结合,确定出人手和头部位置,得到人手的检测跟踪结果。本发明实现了鲁棒的基于视觉的人手跟踪,增强了对光照变化和快速运动的鲁棒性。
-
公开(公告)号:CN103226835B
公开(公告)日:2016-01-27
申请号:CN201310130189.1
申请日:2013-04-15
Applicant: 北京大学深圳研究生院
IPC: G06T7/20
Abstract: 本发明涉及一种基于在线初始化梯度增强回归树的目标跟踪方法及系统,在视频输入端、跟踪目标输出端以及在线训练分类器构成的系统中,方法步骤为:1)在视频序列中选择跟踪目标,提取类Haar特征的正负样本;2)根据所述正负样本随机建立在线分类器得到训练残差;3)将所述训练残差作为在线分类器的训练样本进行训练修正,建立目标模型;4)从下一帧视频图像获取图像置信图,目标窗口确定置信值最大的位置,完成跟踪。本发明使得其能够快速收敛到最优点,完成对随机森林检测的优化,并且通过在线学习实现分类器的更新,很好地解决了目标外观变化、快速运动以及遮挡等问题。
-
公开(公告)号:CN103278164B
公开(公告)日:2015-11-18
申请号:CN201310233773.X
申请日:2013-06-13
Applicant: 北京大学深圳研究生院
Abstract: 本发明涉及一种复杂动态场景下机器人仿生路径规划方法,以及实现该方法的机器人运动规划仿真平台。该方法根据碰撞可能性和到达可能性建立路径安全性衡量准则,采用两层交互路径规划的算法框架,将运动规划分为环境探索层和局部路径规划层,两层之间利用一个自适应的路径缓冲区来进行信息交互,将安全性更新搜索树作为顶层规划器,应用到两层交互框架中的环境探索层。该仿真平台包括问题模块、规划模块和执行模块。本发明仿照人类路径选取的路径规划策略,提出了一种安全、实时的路径规划方案,克服了现有技术仅考虑路径可行性而没有关注路径持续性的不足,实现了机器人在复杂动态环境中的运动规划。
-
公开(公告)号:CN104240720A
公开(公告)日:2014-12-24
申请号:CN201310252634.1
申请日:2013-06-24
Applicant: 北京大学深圳研究生院
Abstract: 本发明公开了一种基于多重分形和信息融合的语音情感识别方法,本方法为:1)从语音库中提取语音样本数据,建立一语音样本训练集合和一语音样本测试集合;2)利用所选非线性特征从语音样本训练集合中提取用于语音情感识别的非线性特征值;非线性特征包括:语音信号多重分形谱,语音信号广义hurst指数;3)对语音样本训练集合进行预处理,然后将非线性特征值作为各弱分类器的输入,对每一弱分类器进行训练;4)将训练后的各弱分类器集成为一强分类器,然后利用语音样本测试集合中语音样本信号对该强分类器进行测试;5)利用测试后的强分类器对新语音信号进行分类,识别出语音信号对应的情感类别。本发明大大提高了语音信号识别的准确性。
-
公开(公告)号:CN103413154A
公开(公告)日:2013-11-27
申请号:CN201310385267.2
申请日:2013-08-29
Applicant: 北京大学深圳研究生院
IPC: G06K9/66
Abstract: 本发明涉及一种基于归一化类谷歌量度矩阵的人体运动识别方法,步骤为:1)提取人体运动视频中的兴趣点,基于3D时空坐标对每个兴趣点的周围局部区域进行局部描述,得到兴趣点子块的3D-SIFT局部运动特征值;2)根据3D-SIFT局部运动特征值对子块进行特征聚类得到多类特征;3)根据不同类特征进行空间归一化类谷歌量度和时间归一化类谷歌量度计算,并配组得到归一化类谷歌量度关系矩阵;4)将归一化类谷歌量度关系矩阵和词袋法局部特征统计直方图训练得到分类器,对人体运动进行识别。本发明增强了运动特征的统计描述能力,弱化局部特征或者子动作较为类似的运动类别间的类间混淆性,提高了复杂环境视频中的人体运动识别效率。
-
公开(公告)号:CN103310454A
公开(公告)日:2013-09-18
申请号:CN201310239290.0
申请日:2013-06-17
Applicant: 北京大学深圳研究生院
IPC: G06T7/00
Abstract: 本发明涉及一种滞留物检测中的静止物体类型判断与物主分析方法及系统,系统输入:静止物体图像,输入前景物体图像,以及该帧图像的帧信息和前景物体在图像中的位置和大小信息,输出:静止物体是否是滞留物,如果是滞留物,返回携带者的信息。步骤包括:1)建立背景模型并检测出每帧图像前景物体,根据前景物体生成物体分类器;2)将静止的前景物体输入到物体分类器根据分类器返回的置信值的平均值判断得到静止前景物体类型为物品或者人体;3)对静止前景类型为物品的物体进行物主分析,得到物品的携带者信息,判断出物主。本发明有效地区分了场景中的静止的人与物品,当判断静止物体类型是物品的情况下,可以立即反馈物品携带者的信息。
-
公开(公告)号:CN103226835A
公开(公告)日:2013-07-31
申请号:CN201310130189.1
申请日:2013-04-15
Applicant: 北京大学深圳研究生院
IPC: G06T7/20
Abstract: 本发明涉及一种基于在线初始化梯度增强回归树的目标跟踪方法及系统,在视频输入端、跟踪目标输出端以及在线训练分类器构成的系统中,方法步骤为:1)在视频序列中选择跟踪目标,提取类Haar特征的正负样本;2)根据所述正负样本随机建立在线分类器得到训练残差;3)将所述训练残差作为在线分类器的训练样本进行训练修正,建立目标模型;4)从下一帧视频图像获取图像置信图,目标窗口确定置信值最大的位置,完成跟踪。本发明使得其能够快速收敛到最优点,完成对随机森林检测的优化,并且通过在线学习实现分类器的更新,很好地解决了目标外观变化、快速运动以及遮挡等问题。
-
公开(公告)号:CN101610412B
公开(公告)日:2011-01-19
申请号:CN200910088878.4
申请日:2009-07-21
Applicant: 北京大学
Abstract: 本发明公开了一种基于多线索融合的视觉跟踪方法,属于信息技术领域。本发明方法包括:a)在视频序列的第一帧中确定包括目标区域和背景区域的跟踪窗口;b)自第二帧起,获得前一帧的颜色特征概率分布图,位置特征概率分布图和运动连续性特征概率分布图;c)将所述三种概率分布图加权相加得到总概率分布图;d)在所述总概率分布图中,通过CAMSHIFT算法得到当前帧的跟踪窗口的中心点坐标。本发明方法可用于人机交互、视觉智能监控、智能机器人、虚拟现实技术、基于模型的图像编码,流媒体的内容检索等领域。
-
公开(公告)号:CN101162506A
公开(公告)日:2008-04-16
申请号:CN200710176751.9
申请日:2007-11-02
Applicant: 北京大学
Abstract: 本发明提供了一种圆形印章的印鉴图像检索方法,属于印章图像自动检索技术领域。该方法包括印章主文字区域提取,对印章主文字进行分割,提取印章主文字中单个文字的特征,利用印章主文字信息建立参考章数据库,以及输入印章图像与参考章数据库中的参考章匹配,自动检索到与输入印章图像相对应的参考章。本发明解决了传统印章鉴别系统的瓶颈问题,即由不可避免的手工输入ID阶段所造成的人工和时间损耗。同时,本发明所涉及的汉字识别方法不受汉字模糊不全的影响,可以得到很高的正确率结果。
-
公开(公告)号:CN119722730A
公开(公告)日:2025-03-28
申请号:CN202411591535.0
申请日:2024-11-08
Applicant: 北京大学深圳研究生院
Abstract: 本发明属于计算机视觉领域,涉及一种面向时空拓扑建模的实时三维人体姿态估计方法和装置。该方法包括:利用对比学习范式进行无标签的预训练,提取人体拓扑结构先验信息;以轻量化的时空人体拓扑提取网络作为编码器,利用人体拓扑结构先验信息,采用双流结构分别并行提取时间域中的人体运动学拓扑关系和空间域中的人体几何拓扑关系;将时间域中的人体运动学拓扑关系和空间域中的人体几何拓扑关系进行累加操作,并通过线性回归得到人体三维姿态的位置并输出相应的三维骨架坐标。本发明能够精确地捕捉人体结构和运动学拓扑特征,能够实现高效准确的三维人体姿态估计。
-
-
-
-
-
-
-
-
-