-
公开(公告)号:CN112936275A
公开(公告)日:2021-06-11
申请号:CN202110162253.9
申请日:2021-02-05
Applicant: 华南理工大学
Abstract: 本发明公开了一种基于深度相机的机械臂抓取系统,包括计算机、深度摄像头、机械臂、AGV小车、遥控器。计算机搭载并运行ROS;深度摄像头与计算机相连;机械臂包括六轴机械臂和夹爪,夹爪安装于机械臂末端;AGV小车上方平台搭载六轴机械臂,遥控器与计算机相连。还提供相应的抓取方法。本发明系统基于ROS体系构建,可准确识别并定位目标物体的位置坐标,控制AGV小车移动和控制六轴机械臂自动抓取目标物体。操作者操控遥控手柄控制AGV小车到达目标物体抓取范围内,计算机通过深度摄像头获取目标物体的图像,图像经算法处理计算出目标物体最佳抓取点的位姿和位置坐标,计算机发送抓取指令到机械臂,机械臂自动抓取目标物体。
-
公开(公告)号:CN112936275B
公开(公告)日:2023-03-21
申请号:CN202110162253.9
申请日:2021-02-05
Applicant: 华南理工大学
Abstract: 本发明公开了一种基于深度相机的机械臂抓取系统,包括计算机、深度摄像头、机械臂、AGV小车、遥控器。计算机搭载并运行ROS;深度摄像头与计算机相连;机械臂包括六轴机械臂和夹爪,夹爪安装于机械臂末端;AGV小车上方平台搭载六轴机械臂,遥控器与计算机相连。还提供相应的抓取方法。本发明系统基于ROS体系构建,可准确识别并定位目标物体的位置坐标,控制AGV小车移动和控制六轴机械臂自动抓取目标物体。操作者操控遥控手柄控制AGV小车到达目标物体抓取范围内,计算机通过深度摄像头获取目标物体的图像,图像经算法处理计算出目标物体最佳抓取点的位姿和位置坐标,计算机发送抓取指令到机械臂,机械臂自动抓取目标物体。
-
公开(公告)号:CN113093726A
公开(公告)日:2021-07-09
申请号:CN202110247114.6
申请日:2021-03-05
Applicant: 华南理工大学
Abstract: 本发明公开了一种基于Yolo_v4算法的目标检测与跟踪方法,包括以下步骤:制作完成数据集;对带有标注的图像数据集进行训练,得到最佳模型参数;将训练好的模型部署于服务器,搭载在客户端机器人车身的视觉传感器不断采集场景图像,并通过局域网传输至服务器;经过训练后的算法识别输入侧图像中待跟踪物体的像素坐标,并输出像素坐标点,局域网传输至客户端机器人;机器人根据单孔相机模型与相关传感器采集的深度值,计算待跟踪物体相对于摄像头中心的相对角度,根据该角度进行下一步路径运动动作。本发明能在复杂场景下精确的完成对目标体的识别和对机器人运动方向的控制,并通过算法远端部署,减少机器人侧计算压力。
-
公开(公告)号:CN112989980A
公开(公告)日:2021-06-18
申请号:CN202110243763.9
申请日:2021-03-05
Applicant: 华南理工大学
Abstract: 本发明公开了一种基于web云平台的目标检测系统及方法,该系统包括:摄像装置、终端装置以及服务器,终端装置分别与摄像装置、服务器连接;摄像装置用于拍摄获得采集图像;终端装置用于接收多个选择参数、将多个选择参数整合为模型参数表单、将模型参数表单发送至服务器、将待检测图像上传至服务器;服务器用于接收由终端装置生成的模型参数表单、基于模型参数表单进行训练模型、将已训练模型的参数数据发送至终端装置、对终端装置上传的待检测图像执行在线目标检测处理;其中已训练模型的参数数据在训练模型的过程中产生,本发明提供选择配置和数据集进行配置深度学习模型,在线对用户上传的图片进行目标检测,大大降低了深度学习的计算和知识门槛。
-
公开(公告)号:CN112927297A
公开(公告)日:2021-06-08
申请号:CN202110193024.3
申请日:2021-02-20
Applicant: 华南理工大学
Abstract: 本发明公开一种基于YOLO系列的目标检测和视觉定位方法,包括步骤:首先,获取待抓取目标的RGB彩色图像图像和深度图像;将采集的RGB彩色图像输入基于darknet框架搭建的YOLO系列目标检测模型中,获得坐标信息和类别及置信度;将坐标信息结合深度图像信息解算出待检测目标的空间三维坐标。本发明提出的基于目标检测算法的定位方法可以利用darknet框架上部署的YOLO系列目标检测算法对深度摄像头采集的RGB彩色图像图像进行二维定位,结合摄像头特殊位置获取的深度信息实现三维定位。YOLO系列目标检测算法相比其他的目标检测算法具有检测速度更快但检测精度也不俗的优势,可保证目标检测的精度,提高检测速度。
-
公开(公告)号:CN113012196B
公开(公告)日:2023-03-24
申请号:CN202110245725.7
申请日:2021-03-05
Applicant: 华南理工大学
Abstract: 本发明公开了一种基于双目相机与惯导传感器信息融合的定位方法,包括以下步骤:采集机器人周边图像序列;对获取的图像帧,使用FAST特征点提取算法,并引入四叉树快速筛选特征点;对获取的图像帧,使用LSD线特征提取算法提取线特征,使用LBD算法计算线特征描述子;针对前后图像帧提取的FAST特征点进行跟踪匹配,获取帧间估计位姿,将前后帧中的点、线特征重投影到当前帧,对线特征进行跟踪匹配;确认当前帧是否为关键帧,若是则获取前后帧间IMU传感器数据,并对其进行预积分,同时将当前帧加入滑动窗口;结合滑窗内已配对的点线特征约束与IMU预积分紧耦合进行后端优化,输出较为准确的帧间运动位姿。
-
公开(公告)号:CN113108771B
公开(公告)日:2022-08-16
申请号:CN202110245806.7
申请日:2021-03-05
Applicant: 华南理工大学
Abstract: 本发明公开了一种基于闭环直接稀疏视觉里程计的移动位姿估计方法,包括以下步骤:采集机器人周边图像序列;视觉里程计前端基于图像序列前两帧进行初始化,确定参考帧;视觉里程计前端基于最小化光度误差的直接法解算图像序列帧间的相对位姿变化并判断是否为关键帧;新关键帧加入视觉里程计后端进行优化,同时将所有关键帧位姿和激活点全部联合起来优化一个总的光度误差函数;对旧关键帧进行边缘化处理,并基于全局位姿图进行闭环检测,确定各帧间最优运动位姿估计。本发明能使得机器人可在复杂环境中准确快速的解算运动位姿,且通过位姿图优化显著减少旋转,平移与尺度漂移等累积误差,耗时更少,实时性更佳,在缺乏角点区域具有较强的鲁棒性。
-
公开(公告)号:CN113108771A
公开(公告)日:2021-07-13
申请号:CN202110245806.7
申请日:2021-03-05
Applicant: 华南理工大学
Abstract: 本发明公开了一种基于闭环直接稀疏视觉里程计的移动位姿估计方法,包括以下步骤:采集机器人周边图像序列;视觉里程计前端基于图像序列前两帧进行初始化,确定参考帧;视觉里程计前端基于最小化光度误差的直接法解算图像序列帧间的相对位姿变化并判断是否为关键帧;新关键帧加入视觉里程计后端进行优化,同时将所有关键帧位姿和激活点全部联合起来优化一个总的光度误差函数;对旧关键帧进行边缘化处理,并基于全局位姿图进行闭环检测,确定各帧间最优运动位姿估计。本发明能使得机器人可在复杂环境中准确快速的解算运动位姿,且通过位姿图优化显著减少旋转,平移与尺度漂移等累积误差,耗时更少,实时性更佳,在缺乏角点区域具有较强的鲁棒性。
-
公开(公告)号:CN113012196A
公开(公告)日:2021-06-22
申请号:CN202110245725.7
申请日:2021-03-05
Applicant: 华南理工大学
Abstract: 本发明公开了一种基于双目相机与惯导传感器信息融合的定位方法,包括以下步骤:采集机器人周边图像序列;对获取的图像帧,使用FAST特征点提取算法,并引入四叉树快速筛选特征点;对获取的图像帧,使用LSD线特征提取算法提取线特征,使用LBD算法计算线特征描述子;针对前后图像帧提取的FAST特征点进行跟踪匹配,获取帧间估计位姿,将前后帧中的点、线特征重投影到当前帧,对线特征进行跟踪匹配;确认当前帧是否为关键帧,若是则获取前后帧间IMU传感器数据,并对其进行预积分,同时将当前帧加入滑动窗口;结合滑窗内已配对的点线特征约束与IMU预积分紧耦合进行后端优化,输出较为准确的帧间运动位姿。
-
-
-
-
-
-
-
-