一种基于局部深度图像关键性的点云匹配方法

    公开(公告)号:CN113160285A

    公开(公告)日:2021-07-23

    申请号:CN202110501063.5

    申请日:2021-05-08

    Abstract: 本发明公开了一种基于局部深度图像关键性的点云匹配方法,涉及点云匹配技术领域,包括用相机采集模型的二维图片和点云数据;标注二维图片的关键区域并获取点云的关键区域;选取关键点并获取关键点处的切平面,将关键点的邻域向切平面投影,投影位置为像素坐标,点到投影位置距离为灰度值,生成局部深度图;将关键点和非关键点的局部深度图设为训练样本,用算法对其训练一个神经网络,基于神经网络判断出的关键性数值,采用点云几何特征算法进行点云匹配。本发明利用深度学习技术,对各点在匹配任务中的关键性判断,降低了非关键性点在匹配中的干扰,提高了匹配准确度和速度。

    一种基于结构光的点云分割方法

    公开(公告)号:CN111951197A

    公开(公告)日:2020-11-17

    申请号:CN202010818380.5

    申请日:2020-08-14

    Abstract: 本发明提供了一种基于结构光的点云分割方法,属于点云分割技术领域。本发明利用由结构光相机生成的点云数据,具有像素与空间点云一一对应的特性,建立起物体的空间坐标与像素坐标之间的对应,将三维点云数据映射到二维图像上,从而快速获取空间无序点云间的拓扑关系,通过对像素坐标的处理,来实现对相应空间坐标的处理,再借助图像处理中的形态学技术,例如图像腐蚀和图像膨胀,将有小部分连接的物体与背景点云完全分割开来。本发明达到了完整分割目标物体与背景点云的目的。

    一种基于局部深度图像关键性的点云匹配方法

    公开(公告)号:CN113160285B

    公开(公告)日:2024-04-16

    申请号:CN202110501063.5

    申请日:2021-05-08

    Abstract: 本发明公开了一种基于局部深度图像关键性的点云匹配方法,涉及点云匹配技术领域,包括用相机采集模型的二维图片和点云数据;标注二维图片的关键区域并获取点云的关键区域;选取关键点并获取关键点处的切平面,将关键点的邻域向切平面投影,投影位置为像素坐标,点到投影位置距离为灰度值,生成局部深度图;将关键点和非关键点的局部深度图设为训练样本,用算法对其训练一个神经网络,基于神经网络判断出的关键性数值,采用点云几何特征算法进行点云匹配。本发明利用深度学习技术,对各点在匹配任务中的关键性判断,降低了非关键性点在匹配中的干扰,提高了匹配准确度和速度。

    一种基于结构光的点云分割方法

    公开(公告)号:CN111951197B

    公开(公告)日:2023-10-20

    申请号:CN202010818380.5

    申请日:2020-08-14

    Abstract: 本发明提供了一种基于结构光的点云分割方法,属于点云分割技术领域。本发明利用由结构光相机生成的点云数据,具有像素与空间点云一一对应的特性,建立起物体的空间坐标与像素坐标之间的对应,将三维点云数据映射到二维图像上,从而快速获取空间无序点云间的拓扑关系,通过对像素坐标的处理,来实现对相应空间坐标的处理,再借助图像处理中的形态学技术,例如图像腐蚀和图像膨胀,将有小部分连接的物体与背景点云完全分割开来。本发明达到了完整分割目标物体与背景点云的目的。

    一种基于法向约束的点云精匹配方法

    公开(公告)号:CN113313200A

    公开(公告)日:2021-08-27

    申请号:CN202110685466.X

    申请日:2021-06-21

    Abstract: 本发明公开了基于法向约束的点云精匹配方法,涉及机器视觉领域,步骤包括:S1:获取点云粗匹配下的位姿,将模型点云位姿作为初值;S2:取一模型点,搜索距离近的多个场景点,将模型点与场景点配对;S3:计算配对后点距序列和法向夹角序列;S4:根据点距序列和夹角序列计算配对点的概率;S5:将点距匹配概率和对应夹角匹配概率相乘再除以全体概率乘积之和作为联合概率;S6:将ICP和联合概率结合获得模型到场景的坐标变换;S7:若最后获得的模型点云坐标与前一次获得的模型点云坐标变化小于给定的阈值,则结束迭代;否则重复S2至S7。本申请提高了场景相似区域位姿变换的准确度。

    一种基于法向约束的点云精匹配方法

    公开(公告)号:CN113313200B

    公开(公告)日:2024-04-16

    申请号:CN202110685466.X

    申请日:2021-06-21

    Abstract: 本发明公开了基于法向约束的点云精匹配方法,涉及机器视觉领域,步骤包括:S1:获取点云粗匹配下的位姿,将模型点云位姿作为初值;S2:取一模型点,搜索距离近的多个场景点,将模型点与场景点配对;S3:计算配对后点距序列和法向夹角序列;S4:根据点距序列和夹角序列计算配对点的概率;S5:将点距匹配概率和对应夹角匹配概率相乘再除以全体概率乘积之和作为联合概率;S6:将ICP和联合概率结合获得模型到场景的坐标变换;S7:若最后获得的模型点云坐标与前一次获得的模型点云坐标变化小于给定的阈值,则结束迭代;否则重复S2至S7。本申请提高了场景相似区域位姿变换的准确度。

Patent Agency Ranking