一种基于PVFH特征的三维物体位姿估计方法

    公开(公告)号:CN110097598A

    公开(公告)日:2019-08-06

    申请号:CN201910289406.9

    申请日:2019-04-11

    Applicant: 暨南大学

    Abstract: 本发明公开了一种基于PVFH特征的三维物体位姿估计方法,本发明涉及三维点云物体位姿估计方法。本发明提出一种改进的全局特征描述符PVFH,利用该描述符实现三维点云物体位姿估计。在离线阶段从CAD模型渲染得到多个视角的点云,并提取部分点云的PVFH特征建立模型库。在在线识别阶段从场景分割出点云物体,然后提取被识别物体的PVFH特征,与模型库进行特征匹配获得粗匹配的位姿,最后用ICP算法进行优化得到精确的姿态。本发明克服了传统全局特征描述符无法识别旋转对称或镜像对称物体的缺点,鲁棒性高。

    基于深度强化学习的机器人自动化手眼标定方法及系统

    公开(公告)号:CN119658701B

    公开(公告)日:2025-04-22

    申请号:CN202510173902.3

    申请日:2025-02-18

    Applicant: 暨南大学

    Abstract: 本发明公开了一种基于深度强化学习的机器人自动化手眼标定方法及系统,该方法包括下述步骤:获取初始手眼矩阵;筛选生成的随机姿态,聚类分析得到多个初始标定姿态;获取初始标定姿态对应标定板图像,预处理后输入视角‑距离卷积神经网络VDCNN,视角‑距离卷积神经网络VDCNN基于深度强化学习拟合视角‑距离动作价值函数,预测最佳视角‑距离调整动作,输出视角价值图和距离价值向量;基于视角价值图得到视角调整像素点,将视角调整像素点转换为旋转矩阵,根据旋转矩阵旋转机器人,实现视角的调整;基于距离价值向量得到距离调整幅度,对机器人进行距离调整,得到最终的手眼标定姿态。本发明显著提高了标定精度和鲁棒性。

    基于深度强化学习的机器人自动化手眼标定方法及系统

    公开(公告)号:CN119658701A

    公开(公告)日:2025-03-21

    申请号:CN202510173902.3

    申请日:2025-02-18

    Applicant: 暨南大学

    Abstract: 本发明公开了一种基于深度强化学习的机器人自动化手眼标定方法及系统,该方法包括下述步骤:获取初始手眼矩阵;筛选生成的随机姿态,聚类分析得到多个初始标定姿态;获取初始标定姿态对应标定板图像,预处理后输入视角‑距离卷积神经网络VDCNN,视角‑距离卷积神经网络VDCNN基于深度强化学习拟合视角‑距离动作价值函数,预测最佳视角‑距离调整动作,输出视角价值图和距离价值向量;基于视角价值图得到视角调整像素点,将视角调整像素点转换为旋转矩阵,根据旋转矩阵旋转机器人,实现视角的调整;基于距离价值向量得到距离调整幅度,对机器人进行距离调整,得到最终的手眼标定姿态。本发明显著提高了标定精度和鲁棒性。

    一种从三维点云中提取二次曲面的方法

    公开(公告)号:CN110111430B

    公开(公告)日:2023-03-10

    申请号:CN201910289385.0

    申请日:2019-04-11

    Applicant: 暨南大学

    Abstract: 本发明公开了一种从三维点云中提取二次曲面的方法,首先利用每个点的K邻域点集拟合每个点对应的曲面并计算其对应的曲面参数标准差;其次按曲面参数标准差从小到大的顺序排列点集;然后从排序后的点集中依序取出每个点,当取出点对应的曲面参数标准小于设置的阈值且未被标记为已生长点时,视为初始种子点;从初始种子点开始进行区域生长,并以当前区域的序号对属于该曲面的生长点进行标记,同时对该曲面的特征参数进行动态拟合,直到一个曲面生长完毕;重复步骤从点集中取出点并进行动态拟合,直到曲面参数标准差大于阈值,最后按点云中的标记序号提取对应曲面。本发明能从三维点云中快速准确地提取二次曲面,获得最优的曲面参数。

    一种基于PVFH特征的三维物体位姿估计方法

    公开(公告)号:CN110097598B

    公开(公告)日:2021-09-07

    申请号:CN201910289406.9

    申请日:2019-04-11

    Applicant: 暨南大学

    Abstract: 本发明公开了一种基于PVFH特征的三维物体位姿估计方法,本发明涉及三维点云物体位姿估计方法。本发明提出一种改进的全局特征描述符PVFH,利用该描述符实现三维点云物体位姿估计。在离线阶段从CAD模型渲染得到多个视角的点云,并提取部分点云的PVFH特征建立模型库。在在线识别阶段从场景分割出点云物体,然后提取被识别物体的PVFH特征,与模型库进行特征匹配获得粗匹配的位姿,最后用ICP算法进行优化得到精确的姿态。本发明克服了传统全局特征描述符无法识别旋转对称或镜像对称物体的缺点,鲁棒性高。

    无人配送机器人、控制方法、装置及存储介质

    公开(公告)号:CN118348976A

    公开(公告)日:2024-07-16

    申请号:CN202410355408.4

    申请日:2024-03-27

    Applicant: 暨南大学

    Abstract: 本发明提供了一种无人配送机器人、控制方法、装置及存储介质,该方法包括:构建虚拟地图在所构建的虚拟地图中得到对应位置;利用预设的路径规划算法规划出最优路径,并在移动过程中实时监测动态障碍物,实时调整无人配送机器人的角度和速度,直到到达取货地点;确定目标货物所对应的包围盒;判断目标货物所对应的包围盒的中心点是否落于预设可抓取区域内,若是,将目标货物在图像坐标系下的坐标转换为机械臂坐标系下的坐标,下位机驱动机械臂运动至该位置抓取目标货物;否则,重新调整无人配送机器人和机械臂的位姿,再进行货物抓取。本发明解决了传统配送机器人无法自主抓取、抓取货物准确率及效率低、巡航动态避障效果不佳等问题。

    一种基于二次曲面特征的工件位姿识别方法

    公开(公告)号:CN110443851B

    公开(公告)日:2021-10-15

    申请号:CN201910721165.0

    申请日:2019-08-06

    Applicant: 暨南大学

    Abstract: 本发明公开了一种基于二次曲面特征的工件位姿识别方法,该方法包括:从模型分割出二次曲面,并计算二次曲面特征参数和质心距离,将二次曲面类型设置为顶点,空间几何关系设置为边的权值,构造模型子图;从场景点云中分割出二次曲面,并计算各二次曲面特征参数,将二次曲面类型设置为顶点,对质心距离满足设定条件的顶点对连接边,将空间几何关系的置信度设置为边的权值,构造场景母图;通过场景母图与模型子图的匹配找到两两对应的二次曲面;将两两对应的二次曲面进行空间几何变换,得到模型对于场景中各个目标对象的刚性变换矩阵。本发明能够快速、准确地同时识别出场景中多个工件的位姿,且适用于同一场景堆叠不同零件的情况。

    一种基于二维几何轮廓的点云姿态识别方法

    公开(公告)号:CN110443199B

    公开(公告)日:2021-10-15

    申请号:CN201910721163.1

    申请日:2019-08-06

    Applicant: 暨南大学

    Abstract: 本发明公开了一种基于二维几何轮廓的点云姿态识别方法,该方法的步骤包括:获取场景的三维点云、二维图片、以及由二维图片转换到三维点云所对应的单应性映射矩阵;从二维图片中提取目标物体二维轮廓;对目标物体二维轮廓进行几何特征检测,提取得到具有几何形状特征的轮廓;通过单应性矩阵将具有几何形状特征的轮廓转换为三维点云;根据几何轮廓转换后的三维点云信息,提取场景的三维点云对应的感兴趣区域点云;提取感兴趣区域点云中的平面;估计平面的法线,将平面的中心坐标设置为姿态的位置信息,将平面的法线设置为姿态的方向信息。本发明结合了由几何模型构成的物体抓取位置的特性,消除了姿态信息的冗余,提高了识别效率。

    一种基于二维几何轮廓的点云姿态识别方法

    公开(公告)号:CN110443199A

    公开(公告)日:2019-11-12

    申请号:CN201910721163.1

    申请日:2019-08-06

    Applicant: 暨南大学

    Abstract: 本发明公开了一种基于二维几何轮廓的点云姿态识别方法,该方法的步骤包括:获取场景的三维点云、二维图片、以及由二维图片转换到三维点云所对应的单应性映射矩阵;从二维图片中提取目标物体二维轮廓;对目标物体二维轮廓进行几何特征检测,提取得到具有几何形状特征的轮廓;通过单应性矩阵将具有几何形状特征的轮廓转换为三维点云;根据几何轮廓转换后的三维点云信息,提取场景的三维点云对应的感兴趣区域点云;提取感兴趣区域点云中的平面;估计平面的法线,将平面的中心坐标设置为姿态的位置信息,将平面的法线设置为姿态的方向信息。本发明结合了由几何模型构成的物体抓取位置的特性,消除了姿态信息的冗余,提高了识别效率。

    用于桶形贴标机的圆桶特征定位方法及装置

    公开(公告)号:CN119295540A

    公开(公告)日:2025-01-10

    申请号:CN202411148571.X

    申请日:2024-08-21

    Abstract: 本发明公开了一种用于桶形贴标机的圆桶特征定位方法及装置,包括基于预设的多个摄像头获取圆桶的视频流数据,利用预训练的圆桶特征识别网络对所述视频流数据进行特征识别,并将识别到的目标特征和目标特征对应的摄像头编号保存到缓冲文件中;初始化缓冲文件;清空缓冲文件后,等待缓冲文件中的一条新的识别数据,将缓冲文件中的识别数据输入到预先设立的圆桶位置角度模型中,得到目标特征当前所在的角度位置信息;基于圆桶目标特征当前所在的角度位置信息生成一个状态信息;将所述角度位置信息和所述状态信息传给服务器端,服务器端根据接收到的角度位置信息和状态信息将圆桶的目标特征转到指定位置。本发明解决了传统贴标机定位速度较慢的问题。

Patent Agency Ranking