-
公开(公告)号:CN118365781A
公开(公告)日:2024-07-19
申请号:CN202410434606.X
申请日:2024-04-11
Applicant: 北京大学深圳研究生院
Abstract: 本发明涉及一种基于逆运动学的轻量三维人体网格重建的方法和系统。该方法的步骤包括:利用二维姿态检测器,提取输入图像中人体的二维关节位置;将二维关节坐标投影到特征空间,得到关节特征;将关节特征输入到沙漏型Transformer网络,估计三维关节,构成人体骨架;将不同拓扑结构的三维骨架统一到SMPL的拓扑结构;利用逆运动学将三维关节的坐标位置转换为相对旋转,作为人体模型的姿态参数;将三维骨架输入多层感知机,估计人体的体型参数;将姿态和体型参数输入SMPL网格回归器,得到三维人体网格。本方法通过设计轻量的沙漏型结构网络和基于逆运动学求解姿态参数,有效降低了模型的计算量和参数量,同时提高了人体重建精度,更适用于真实场景的应用。
-
公开(公告)号:CN117576787B
公开(公告)日:2024-04-16
申请号:CN202410060569.0
申请日:2024-01-16
Applicant: 北京大学深圳研究生院
Abstract: 本申请公开了一种基于主动跟踪和自适应手势识别的交接方法、装置及设备,方法包括通过机器人安装的深度相机采集视频图像;基于视频图像通过媒体管道获取相机坐标系下的第一手部地标;将第一手部地标转换至预设的世界坐标系以得到第二手部地标;将第二手部地标输入经过训练的手势识别模型,通过手势识别模型确定所述视频图像对应的用户手势;通过机器人将交互对象交互给用户。本申请实施例通过使用包括媒体管道提示手部地标和通过手势识别模型识别用户手势的两阶段方法,在面对不同物体和不同照明条件时均能准确识别到用户手势,提高了人机交互的准确性,确保了与人类抓握一致的平稳和自然的交接过程。
-
公开(公告)号:CN109239665B
公开(公告)日:2022-04-15
申请号:CN201810752391.0
申请日:2018-07-10
Applicant: 北京大学深圳研究生院
IPC: G01S5/18
Abstract: 本发明公开一种基于信号子空间相似度谱和粒子滤波器的多声源连续定位方法和装置。本方法采用一种时频域加权机制选择单声源主导时频带,避免了多声源定位中出现的声源相互影响的问题,一定程度上抑制混响噪声影响;利用空间相关矩阵主特征向量包含的声源方向信息,构建局部信号子空间相似度谱,可以有效地反映声源的位置信息;采用局部谱分配方法综合多个时频带得到半局部谱,并采用粒子滤波器考虑帧间连续信息对声源进行跟踪,进一步提升了连续定位的准确性。本发明的优势在于为实际应用中多移动声源同时发声的声学场景提供了一种有效的声源定位思路。
-
公开(公告)号:CN106840166B
公开(公告)日:2020-07-10
申请号:CN201710081020.X
申请日:2017-02-15
Applicant: 北京大学深圳研究生院 , 深圳市银星智能科技股份有限公司
IPC: G01C21/20
Abstract: 本发明公开一种基于词袋树群模型的机器人定位和导航方法。该方法为:1)输入长时间的包含低动态室内场景变化的视频流;2)从视频流图像中离线抽取特征;3)对得到的特征通过k‑means++算法进行聚类;4)对聚类得到的子空间进行迭代聚类;5)对迭代聚类后的特征建立词袋树模型;6)建立词袋树群模型;7)通过统计原理对低动态物体的运动规律进行统计;8)根据词袋树群模型,利用所述运动规律分析确定当前时刻对应的词袋树模型;9)将确定的词袋树模型用于回环检测,实现机器人在低动态环境下的定位和导航。本发明能够在避免使用昂贵的激光传感器情况下,低成本地实现机器人在室内等低动态环境下长时间自主定位和导航。
-
公开(公告)号:CN107025442B
公开(公告)日:2020-05-01
申请号:CN201710208523.9
申请日:2017-03-31
Applicant: 北京大学深圳研究生院
Abstract: 本发明涉及一种基于颜色和深度信息的多模态融合手势识别方法,其步骤包括:1)使用彩色摄像机和深度摄像机同时对手势进行拍摄,得到手势的颜色和深度的原始数据;2)使用高斯平滑方法对颜色和深度的原始数据进行滤波,得到颜色和深度的平滑数据;3)将肤色和深度作为先验知识,对颜色和深度的平滑数据分别进行分割,得到肤色分割区域和深度分割区域;4)采用动态权重进行肤色分割区域和深度分割区域的像素层融合,构成融合分割图;5)利用特征描述子对融合分割图提取特征,构成特征图;6)对特征图进行编码,构成手势编码;7)对手势编码进行识别,从而实现对手势的识别。本发明能够得到比现有技术更高的手势识别的准确率。
-
公开(公告)号:CN106885574B
公开(公告)日:2020-02-07
申请号:CN201710081158.X
申请日:2017-02-15
Applicant: 北京大学深圳研究生院 , 深圳市银星智能科技股份有限公司
Abstract: 本发明公开了一种基于重跟踪策略的单目视觉机器人同步定位与地图构建方法。本方法为:1)对每张图片提取ORB特征;2)利用相邻图片的特征匹配跟踪相机姿态;3)对跟踪丢失的图片执行重定位与重跟踪策略;4)若重定位成功执行,则估计当前相机的姿态,且停止执行重跟踪策略并删除其产生的临时变量;5)若重跟踪策略成功执行,则产生一条新的轨迹;6)对产生的轨迹数量进行判定,若数量超过阈值,则将最初始的轨迹剔除;7)对每个关键帧进行闭环检测,检测成功后进行轨迹融合;8)定位系统结束时,对所述轨迹进行筛选,得到一条姿态正确的轨迹。本发明的优势在于能在快速移动、遮挡、纹理不足、光照变化的条件下,定位完整的相机轨迹。
-
公开(公告)号:CN107025442A
公开(公告)日:2017-08-08
申请号:CN201710208523.9
申请日:2017-03-31
Applicant: 北京大学深圳研究生院
Abstract: 本发明涉及一种基于颜色和深度信息的多模态融合手势识别方法,其步骤包括:1)使用彩色摄像机和深度摄像机同时对手势进行拍摄,得到手势的颜色和深度的原始数据;2)使用高斯平滑方法对颜色和深度的原始数据进行滤波,得到颜色和深度的平滑数据;3)将肤色和深度作为先验知识,对颜色和深度的平滑数据分别进行分割,得到肤色分割区域和深度分割区域;4)采用动态权重进行肤色分割区域和深度分割区域的像素层融合,构成融合分割图;5)利用特征描述子对融合分割图提取特征,构成特征图;6)对特征图进行编码,构成手势编码;7)对手势编码进行识别,从而实现对手势的识别。本发明能够得到比现有技术更高的手势识别的准确率。
-
公开(公告)号:CN103886304B
公开(公告)日:2017-03-29
申请号:CN201410133803.4
申请日:2014-04-03
Applicant: 北京大学深圳研究生院
Abstract: 本发明提供一种真假笑识别方法,考虑脸部的不同区域对识别真假笑做出不同的贡献,提出了一种柔性面部子区域分割方法。考虑笑容过程中不同状态对真假笑做出的不同贡献,提出了一种笑容时间域分割方法。考虑真笑和假笑的局部特征信息并真笑假笑各自的共同特点,提出了一种具有判别信息的局部时空描述子。运用基于外观的特征提取方法,克服了基于几何特征的真假笑识别方法过度依赖于面部几何特征的弱点,充分挖掘真笑和假笑各自提取的局部特征的共性,使得两类笑容的类间差距增大,类内差距缩小,从而提高识别的精确度。
-
公开(公告)号:CN103280220B
公开(公告)日:2015-11-18
申请号:CN201310148422.9
申请日:2013-04-25
Applicant: 北京大学深圳研究生院
Abstract: 本发明涉及一种实时的婴儿啼哭声识别方法,其步骤包括:1)录制婴儿啼哭声信号并建立声音库,进行预处理;2)当啼哭声开始时,采集得到婴儿啼哭声后采样得到实时数字信号,并在固定时间窗内对实时数字信号中的完整语音段依次进行分帧、加窗处理后提取得到实时特征向量序列;3)将实时特征向量序列与该GMM模板进行匹配,得到似然度最大的类,将最大的类作为识别结果,并对当前识别结果进行投票;4)当啼哭声结束后,根据投票结果判断婴儿啼哭声类别,完成识别,进行婴儿状况处理。本发明能够实时快速地判别婴儿啼哭声属于饥饿型、困倦型、尿湿型和疼痛型中的哪种类型,辅助护理人员及时反应、识别性能高。
-
公开(公告)号:CN104021554A
公开(公告)日:2014-09-03
申请号:CN201410252716.0
申请日:2014-06-09
Applicant: 北京大学深圳研究生院
IPC: G06T7/00
Abstract: 本发明公开了一种基于部分传感器信息的相机-惯性传感器标定方法,首先建立基于部分惯性传感器信息的标定方程,然后通过先恢复惯性传感器缺失的信息,再求解相机-惯性传感器之间的相对坐标变换,对上述基于部分惯性传感器信息的标定方程进行求解,并对标定结果进行了优化。解决了在惯性传感器输出信息不完全条件下相机-惯性传感器标定问题,并且在实际标定环境中,在有观测误差的情形下,设计的优化算法可以最优化最终标定结果,获得一个很好的标定精度。
-
-
-
-
-
-
-
-
-