-
公开(公告)号:CN116625380A
公开(公告)日:2023-08-22
申请号:CN202310921547.4
申请日:2023-07-26
Applicant: 广东工业大学
Abstract: 本发明提供一种基于机器学习和SLAM的路径规划方法及系统,属于无人机技术领域,该方法包括:使用FlowNetS对采集的图像中的路径点进行光流估计;根据路径点的光流筛选出候选路径点;判断候选路径点是否满足决策指标,若满足则将候选路径点设为最终路径点,若不满足则重新生成候选路径点;根据最终路径点生成可行路径。本发明解决了视觉SLAM直接法预测光流所需关键帧数过多的问题,克服了参考帧候选点选取的准确性以提高图像的跟踪性能问题,提高了系统实时性能,避免了传统SLAM系统的边云协同中通讯要求高、计算负载大的问题。
-
公开(公告)号:CN113506346A
公开(公告)日:2021-10-15
申请号:CN202110763412.0
申请日:2021-07-06
Applicant: 广东工业大学
Abstract: 本发明公开了一种应用于弱纹理大旋转场景下的相机的位姿求解方法,利用传统的SPF方法从偏振图像中恢复出带有模糊性的法线信息,对得到的法线聚类分割出不同的法线平面块,从中提取满足高斯分布的随机像素点若干,并在图像间对像素点追踪,实现图像间的平面匹配,再对分割的平面块内的法线进行基于偏振的RANSAC优化处理,剔除外点后即可得到平面块的平均法线值,同时对图像间的I MU数据预计分,两图像对应的平面块的平均法线值联合由I MU得到的相对姿态实现法线模糊性的去除,再结合线性优化理论从平均法线对中求解出相机姿态。本发明能解决视觉方法短板,拓展视觉算法的适用范围,在弱纹理大旋转等极端场景下依然能估计相机姿态。
-
公开(公告)号:CN109934094A
公开(公告)日:2019-06-25
申请号:CN201910057142.4
申请日:2019-01-22
Applicant: 广东工业大学
Abstract: 本发明公开了一种提高移动机器人单目视觉环境探索可靠性的系统及其方法,从单目视觉的传感特点入手,结合环境建模策略、控制策略以及建模完整度评估策略,建立具有段点续传、故障预防能力的视觉导航方案。本发明能提高基于单目视觉的移动机器人系统可靠运行时间,建立有利于实际场景应用的移动机器人探索系统。
-
公开(公告)号:CN116625380B
公开(公告)日:2023-09-29
申请号:CN202310921547.4
申请日:2023-07-26
Applicant: 广东工业大学
Abstract: 本发明提供一种基于机器学习和SLAM的路径规划方法及系统,属于无人机技术领域,该方法包括:使用FlowNetS对采集的图像中的路径点进行光流估计;根据路径点的光流筛选出候选路径点;判断候选路径点是否满足决策指标,若满足则将候选路径点设为最终路径点,若不满足则重新生成候选路径点;根据最终路径点生成可行路径。本发明解决了视觉SLAM直接法预测光流所需关键帧数过多的问题,克服了参考帧候选点选取的准确性以提高图像的跟踪性能问题,提高了系统实时性能,避免了传统SLAM系统的边云协同中通讯要求高、计算负载大的问题。
-
公开(公告)号:CN109919969A
公开(公告)日:2019-06-21
申请号:CN201910057143.9
申请日:2019-01-22
Applicant: 广东工业大学
Abstract: 本发明公开了一种利用深度卷积神经网络实现视觉运动控制的方法,只需要单目相机获取移动平台的当前图像,以及只需要对当前获取的单帧图像进行分析,便可得到当前视角下的合理运动控制规划。不需要通过多帧图像的多图像关联得到移动平台的定位信息,同时也不需要进行特征点数据匹配以及平面映射。另外,与已有的基于神经网络的视觉运控方案不同,本发明不需要进行路标识别以及特征点提取。再者,本发明利用深度神经网络具有语义分割的能力,对当前获取图像进行语义分割。并直接将该分割结果用以运动目标点规划,从单帧图像输入到运动控制目标点的规划,整个过程无需人为先验知识的输入。本发明具有成本低、运控简单快捷等优点。
-
公开(公告)号:CN109919969B
公开(公告)日:2022-11-22
申请号:CN201910057143.9
申请日:2019-01-22
Applicant: 广东工业大学
Abstract: 本发明公开了一种利用深度卷积神经网络实现视觉运动控制的方法,只需要单目相机获取移动平台的当前图像,以及只需要对当前获取的单帧图像进行分析,便可得到当前视角下的合理运动控制规划。不需要通过多帧图像的多图像关联得到移动平台的定位信息,同时也不需要进行特征点数据匹配以及平面映射。另外,与已有的基于神经网络的视觉运控方案不同,本发明不需要进行路标识别以及特征点提取。再者,本发明利用深度神经网络具有语义分割的能力,对当前获取图像进行语义分割。并直接将该分割结果用以运动目标点规划,从单帧图像输入到运动控制目标点的规划,整个过程无需人为先验知识的输入。本发明具有成本低、运控简单快捷等优点。
-
公开(公告)号:CN112580438A
公开(公告)日:2021-03-30
申请号:CN202011351977.X
申请日:2020-11-26
Applicant: 广东工业大学
Abstract: 本发明公开了一种三维场景下的点云识别方法,以激光雷达扫描仪获取的原始点云数据作为输入,利用点云的局部几何曲率变化特征,对点云曲率变化明显的部分进行针对性的分类采样处理,进而将点云划分为语义级别上有意义的部分,并将采样得到的特征点标记为预定义的对象类别,从而识别点云环境中不同的物体。本发明利于提高三维点云的分割精度,驱动移动机器人在三维点云场景中更有效地识别不同的物体。
-
-
公开(公告)号:CN109760107A
公开(公告)日:2019-05-17
申请号:CN201910056723.6
申请日:2019-01-22
Applicant: 广东工业大学
IPC: B25J19/00
Abstract: 本发明公开了一种基于单目视觉的机器人定位精度评价方法,在机器人运动空间中任意位置布置标定板,运动过程中,机器人在其工作环境中的不同位置观测同一标定板多次,并以这样的观测方法多次采样,根据一次运动过程采集的所有观测信息,以及观测信息的数据统计特征,实现不同定位算法在同样的工作环境下定位精度的定量对比。本发明不借助于其他精密仪器来获取机器人真实的位姿,并且不需要大量重复的实验测试,节约了使用成本同时提高了工作效率。另外,采用环境未知位姿的标定板,使得评价方法更加简便,机器人的运动环境和空间不受限制。最后,以正相关于定位误差的表达来描述机器人定位算法的精确度,实现不同算法间定位精度高低的比较。
-
公开(公告)号:CN111340873B
公开(公告)日:2023-05-23
申请号:CN202010128916.0
申请日:2020-02-28
Applicant: 广东工业大学
Abstract: 本申请公开了一种多视角图像的物体最小外包络尺寸测算方法,包括:利用终端设备从两个不同的角度分别拍摄待测量物体的图像,计算所拍摄的图像中的像素点在世界坐标系中的空间坐标,从而得到图像的三维点云模型;将物体的点云从图像的三维点云模型中分离提取出来,完成物体的点云提取;对于物体的点云,利用有向包络盒生成物体表面的顶点,通过主成分分析获得特征向量,从而获取物体的最小外包络,得到物体的尺寸。本申请通过获取物体多视角图像,提取三维点云模型来估算尺寸的方法,更好地满足了物流行业对包裹信息获取的实际应用需求;该方法实现过程自动化,除了拍摄之外,无需人工手动操作,应用场景广泛,使用方便。
-
-
-
-
-
-
-
-
-