一种面向多种背景下的机器人抓取检测方法及装置

    公开(公告)号:CN119635626A

    公开(公告)日:2025-03-18

    申请号:CN202411665529.5

    申请日:2024-11-20

    Applicant: 安徽大学

    Abstract: 本发明提供一种面向多种背景下的机器人抓取检测方法及装置,涉及机器人智能控制技术领域。该方法包括:获取抓取数据集;对抓取数据集进行预处理,获得预处理后的抓取数据集;构建自适应多背景抑制抓取网络;根据预处理后的抓取数据集,对自适应多背景抑制抓取网络进行训练,获得训练好的自适应多背景抑制抓取网络;获取待抓取物体的RGB‑D图像数据;将待抓取物体的RGB‑D图像数据输入训练好的自适应多背景抑制抓取网络中,获得抓取质量图、抓取角度图以及抓取宽度图;根据抓取质量图、抓取角度图以及抓取宽度图,估计抓取位姿数据;根据抓取位姿数据进行运动规划,使机器人执行抓取任务。采用本发明可提升机器人系统的抓取操作的实时性和精确度。

    一种非结构化环境下的机器人视觉抓取方法及系统

    公开(公告)号:CN117549307B

    公开(公告)日:2024-04-16

    申请号:CN202311740217.1

    申请日:2023-12-15

    Applicant: 安徽大学

    Abstract: 本发明属于机器人智能控制技术领域内的一种非结构化环境下的机器人视觉抓取方法及系统,方法包括基于深度相机获取外部环境和目标对象的视觉信息并进行预处理后,生成待处理图像并输入预先构建的GARDSCN网络模型中,输出目标对象的抓取置信度信息、抓取角度信息和抓取宽度信息,并选择抓取置信度最高的像素点下对应的抓取角度和抓取宽度形成最优抓取位姿;通过将二维抓取位姿转换为机器人坐标系下的三维目标抓取位姿,基于规划的运动轨迹控制机器人到达目标位置以执行抓取。本发明中抓取系统中检测与推理模块的GARDSCN网络模型关注目标物体特征的空间和通道信息,避免了工作场景中的背景信息干扰,并引入的残差结构,在加深网络深度的同时不会导致梯度消失。

    一种基于改进生成残差网络MetaCoorNet的机器人抓取姿态估计方法

    公开(公告)号:CN118514080B

    公开(公告)日:2024-10-29

    申请号:CN202410802921.3

    申请日:2024-06-20

    Applicant: 安徽大学

    Abstract: 本发明涉及机器人技术领域,特别是指一种基于改进生成残差网络MetaCoorNet的机器人抓取姿态估计方法及系统。所述方法包括:根据MCB模块以及残差模块进行模型构建,获得MCN抓取姿态预测模型;通过外部相机对目标场景进行拍摄,获得目标图像;将目标图像输入MCN抓取姿态预测模型,获得抓取姿态;根据预设的坐标转换单应性矩阵,对抓取姿态进行坐标变换,获得机器人抓取姿态;根据机器人抓取姿态以及预设的机器人运动学模型进行逆运动求解,得到关节转动角度值;根据关节转动角度值,通过执行器执行抓取动作。本发明是一种特征提取能力强、计算成本低、位置信息融合机制精确的机器人抓取姿态估计方法。

    一种基于改进生成残差网络MetaCoorNet的机器人抓取姿态估计方法

    公开(公告)号:CN118514080A

    公开(公告)日:2024-08-20

    申请号:CN202410802921.3

    申请日:2024-06-20

    Applicant: 安徽大学

    Abstract: 本发明涉及机器人技术领域,特别是指一种基于改进生成残差网络MetaCoorNet的机器人抓取姿态估计方法及系统。所述方法包括:根据MCB模块以及残差模块进行模型构建,获得MCN抓取姿态预测模型;通过外部相机对目标场景进行拍摄,获得目标图像;将目标图像输入MCN抓取姿态预测模型,获得抓取姿态;根据预设的坐标转换单应性矩阵,对抓取姿态进行坐标变换,获得机器人抓取姿态;根据机器人抓取姿态以及预设的机器人运动学模型进行逆运动求解,得到关节转动角度值;根据关节转动角度值,通过执行器执行抓取动作。本发明是一种特征提取能力强、计算成本低、位置信息融合机制精确的机器人抓取姿态估计方法。

    一种机器人视觉检测方法及基于视觉检测方法的抓取系统

    公开(公告)号:CN118143970A

    公开(公告)日:2024-06-07

    申请号:CN202410377500.0

    申请日:2024-03-29

    Applicant: 安徽大学

    Abstract: 本发明涉及机器人智能控制领域,特别是指一种机器人视觉检测方法及基于视觉检测方法的抓取系统,方法包括:根据RGBD图像数据以及融合增强抓取检测网络得到视觉检测结果;网络包括串行分支残差挤压、并行通道‑像素注意力跳跃连接和跨级别特征多层次融合模块。在多种未知场景中实现对未知物体稳定且可靠的抓取位姿检测,设计的网络在空间和通道维度分别进行全局位置和空间局部信息特征的提取融合,在不同尺度上捕捉信息并自适应融合,提取高分辨率细粒度表层信息和高级抽象语义信息,有效的处理不同尺寸、不同颜色、不同外形的物体。在高效抓取过程中维持高成功率,确保抓取位姿推理的快速性,满足实时性同时保证抓取操作的精准度和效率。

    一种机器人视觉检测方法及基于视觉检测方法的抓取系统

    公开(公告)号:CN118143970B

    公开(公告)日:2024-08-23

    申请号:CN202410377500.0

    申请日:2024-03-29

    Applicant: 安徽大学

    Abstract: 本发明涉及机器人智能控制领域,特别是指一种机器人视觉检测方法及基于视觉检测方法的抓取系统,方法包括:根据RGBD图像数据以及融合增强抓取检测网络得到视觉检测结果;网络包括串行分支残差挤压、并行通道‑像素注意力跳跃连接和跨级别特征多层次融合模块。在多种未知场景中实现对未知物体稳定且可靠的抓取位姿检测,设计的网络在空间和通道维度分别进行全局位置和空间局部信息特征的提取融合,在不同尺度上捕捉信息并自适应融合,提取高分辨率细粒度表层信息和高级抽象语义信息,有效的处理不同尺寸、不同颜色、不同外形的物体。在高效抓取过程中维持高成功率,确保抓取位姿推理的快速性,满足实时性同时保证抓取操作的精准度和效率。

    一种非结构化环境下的机器人视觉抓取方法及系统

    公开(公告)号:CN117549307A

    公开(公告)日:2024-02-13

    申请号:CN202311740217.1

    申请日:2023-12-15

    Applicant: 安徽大学

    Abstract: 本发明属于机器人智能控制技术领域内的一种非结构化环境下的机器人视觉抓取方法及系统,方法包括基于深度相机获取外部环境和目标对象的视觉信息并进行预处理后,生成待处理图像并输入预先构建的GARDSCN网络模型中,输出目标对象的抓取置信度信息、抓取角度信息和抓取宽度信息,并选择抓取置信度最高的像素点下对应的抓取角度和抓取宽度形成最优抓取位姿;通过将二维抓取位姿转换为机器人坐标系下的三维目标抓取位姿,基于规划的运动轨迹控制机器人到达目标位置以执行抓取。本发明中抓取系统中检测与推理模块的GARDSCN网络模型关注目标物体特征的空间和通道信息,避免了工作场景中的背景信息干扰,并引入的残差结构,在加深网络深度的同时不会导致梯度消失。

    基于多功能抓取及对象无关框架的机器人抓取方法及系统

    公开(公告)号:CN118493399B

    公开(公告)日:2025-04-25

    申请号:CN202410848632.7

    申请日:2024-06-27

    Applicant: 安徽大学

    Abstract: 本发明提供一种基于多功能抓取及对象无关框架的机器人抓取方法及系统,涉及机器人智能控制领域。所述方法包括:对训练集中的RGB图像信息进行预处理,得到处理后的RGB图像信息;根据处理后的RGB图像信息和深度信息,搭建抓取检测模型;基于IOU计算得到损失计算策略;基于损失计算策略,对抓取检测模型进行训练,得到携带最优的权重参数的抓取检测模型;控制器根据携带最优的权重参数的抓取检测模型,建立抓取位姿配置在相机坐标系与世界坐标系间的转化关系,得到三维世界坐标系下的抓取位姿;机器人根据三维世界坐标系下的抓取位姿,将物体运输至指定的目标位置,本发明提升了机器人抓取物体的能力。

    一种基于Faster R-CNN和GRCNN的机械臂智能抓取方法及系统

    公开(公告)号:CN116673962B

    公开(公告)日:2024-03-19

    申请号:CN202310848848.9

    申请日:2023-07-12

    Applicant: 安徽大学

    Abstract: 本发明属于机器人智能控制技术领域,具体涉及一种基于Faster R‑CNN和GRCNN的机械臂智能抓取方法及系统;方法包括Faster R‑CNN网络模型检测物体类别和位置,再将检测到的目标物体对应像素的深度图像部分提取出来后,经过处理输入到GRCNN网络模型中,GRCNN网络模型输出置信度最高的像素点作为抓取点,这组置信度最高的抓取点经过相机坐标系和机器人坐标系的转换后,得到机器人坐标系下的抓取位姿表示模型。最后这组抓取位姿表示模型被送入到机械臂的控制器中,控制器控制机械臂执行抓取任务;本发明实现机械臂与外界环境的交互感知,适用于大量未知物体的抓取检测。机械臂具有自主识别和智能决策能力,提升抓取检测的成功率,整个的抓取方案具有任务泛化性。

    基于多功能抓取及对象无关框架的机器人抓取方法及系统

    公开(公告)号:CN118493399A

    公开(公告)日:2024-08-16

    申请号:CN202410848632.7

    申请日:2024-06-27

    Applicant: 安徽大学

    Abstract: 本发明提供一种基于多功能抓取及对象无关框架的机器人抓取方法及系统,涉及机器人智能控制领域。所述方法包括:对训练集中的RGB图像信息进行预处理,得到处理后的RGB图像信息;根据处理后的RGB图像信息和深度信息,搭建抓取检测模型;基于IOU计算得到损失计算策略;基于损失计算策略,对抓取检测模型进行训练,得到携带最优的权重参数的抓取检测模型;控制器根据携带最优的权重参数的抓取检测模型,建立抓取位姿配置在相机坐标系与世界坐标系间的转化关系,得到三维世界坐标系下的抓取位姿;机器人根据三维世界坐标系下的抓取位姿,将物体运输至制定的目标位置,本发明提升了机器人抓取物体的能力。

Patent Agency Ranking