-
公开(公告)号:CN104462764A
公开(公告)日:2015-03-25
申请号:CN201410615853.6
申请日:2014-11-06
Applicant: 中国人民解放军第二炮兵工程设计研究所 , 南开大学
IPC: G06F19/00
Abstract: 本发明属于一种虚拟仿真技术领域,特别涉及一种虚拟模型空间距离计算方法。一种虚拟现实仿真中物体表面间最小距离的快速计算方法,其特征包括以下步骤:A、将虚拟物体模型离散成顶点和多边形面片的形式,标记各顶点的序号及多边形面片对应顶点索引信息;B、构建树型空间结构遍历后找出两模型间的最近顶点对,并计算该最近点对在欧式空间直线距离;还包括C、在两个模型上分别找出各自最近顶点所在的全部多边形面片;D、分别计算两个模型上最近顶点到对方模型上最近顶点所在全部多边形面片的距离;E、重复步骤C和D,找出最小值即为两物体间的最小间隙。本发明加速了最近顶点的搜索过程,提高了估算精度,加强了对不同类型物体模型的适应性。
-
公开(公告)号:CN111275764A
公开(公告)日:2020-06-12
申请号:CN202010089290.7
申请日:2020-02-12
Applicant: 南开大学
Abstract: 本发明属于移动机器人自主定位与导航领域,为提出一种基于直线阴影的RGB-D视觉里程计方法,通过平面约束遮挡线和被遮挡点线的几何关系,构建最小重投影误差方程,通过非线性优化求解位姿。为此,本发明采取的技术方案是,基于线段阴影的深度相机视觉里程测量方法,首先提取图像中的平面和线段结构并进行参数拟合,在普朗克(Plücker)坐标系下定义方线段和平面的表示方式;使用平面π、遮挡线L和平面πL进行位姿估计;最后通过被遮挡线匹配约束提高位姿估计的精度。本发明主要应用于移动机器人自主定位与导航场合。
-
公开(公告)号:CN108256463B
公开(公告)日:2022-01-04
申请号:CN201810028630.8
申请日:2018-01-10
Applicant: 南开大学
Abstract: 一种基于ESN神经网络的移动机器人场景识别方法:从构成场景的图像序列中,提取ORB特征点,再从提取到的ORB特征点中,提取PIRF特征点;对从图像序列中提取的PIRF特征点,使用词袋模型建立词袋码本,使用词袋码本为图像序列中的每幅图像计算编码向量;构建ESN神经网络,以每幅图像的编码向量作为ESN神经网络的输入,在线训练ESN神经网络,根据输出结果识别和提取图像序列中的场景信息。本发明以场景中的动态物体对场景识别带来的随机性,对于高动态环境有很强的适应性。本发明大大减小了搜索规模和难度,提高了搜索和识别的效率。本发明有很好的适用性,可以方便有效地完成场景序列的识别和分类,保证识别的准确性同时,提高了识别速度。
-
公开(公告)号:CN111275764B
公开(公告)日:2023-05-16
申请号:CN202010089290.7
申请日:2020-02-12
Applicant: 南开大学
Abstract: 本发明属于移动机器人自主定位与导航领域,为提出一种基于直线阴影的RGB‑D视觉里程计方法,通过平面约束遮挡线和被遮挡点线的几何关系,构建最小重投影误差方程,通过非线性优化求解位姿。为此,本发明采取的技术方案是,基于线段阴影的深度相机视觉里程测量方法,首先提取图像中的平面和线段结构并进行参数拟合,在普朗克(Plücker)坐标系下定义方线段和平面的表示方式;使用平面π、遮挡线L和平面πL进行位姿估计;最后通过被遮挡线匹配约束提高位姿估计的精度。本发明主要应用于移动机器人自主定位与导航场合。
-
公开(公告)号:CN108256463A
公开(公告)日:2018-07-06
申请号:CN201810028630.8
申请日:2018-01-10
Applicant: 南开大学
Abstract: 一种基于ESN神经网络的移动机器人场景识别方法:从构成场景的图像序列中,提取ORB特征点,再从提取到的ORB特征点中,提取PIRF特征点;对从图像序列中提取的PIRF特征点,使用词袋模型建立词袋码本,使用词袋码本为图像序列中的每幅图像计算编码向量;构建ESN神经网络,以每幅图像的编码向量作为ESN神经网络的输入,在线训练ESN神经网络,根据输出结果识别和提取图像序列中的场景信息。本发明以场景中的动态物体对场景识别带来的随机性,对于高动态环境有很强的适应性。本发明大大减小了搜索规模和难度,提高了搜索和识别的效率。本发明有很好的适用性,可以方便有效地完成场景序列的识别和分类,保证识别的准确性同时,提高了识别速度。
-
-
-
-