-
公开(公告)号:CN119991944A
公开(公告)日:2025-05-13
申请号:CN202510040405.6
申请日:2025-01-10
Applicant: 江淮前沿技术协同创新中心 , 北京邮电大学
Abstract: 本发明公开了一种基于视触融合的舱内抓取目标表征方法,包括:获取基于视触融合信息的舱内抓取目标三维模型重建数据集;使用所述数据集对初始的三维模型重建网络进行训练,得到基于视触融合信息的舱内抓取目标三维模型重建网络;将需要重建三维模型的舱内目标单视角视觉点云、视野盲区触觉点云输入基于视触融合信息的舱内抓取目标三维模型重建网络,得到舱内抓取目标三维模型。本发明通过视触融合的方式以较高精度重建舱内抓取目标三维模型,弥补基于机器人视觉的抓取目标三维模型重建方法不足,提高机器人抓取目标重建的精度,进而保证机器人空间站舱内抓取任务的可靠性。
-
公开(公告)号:CN118700147A
公开(公告)日:2024-09-27
申请号:CN202410929447.0
申请日:2024-07-11
Applicant: 北京邮电大学 , 江淮前沿技术协同创新中心
IPC: B25J9/16
Abstract: 本发明公开了一种机器人抓取控制方法,包括:获取训练数据集,训练数据集包含机器人的多指灵巧手抓取过程中所采集的触觉数据、机器人的多指灵巧手的手指关节角度、机器人的多指灵巧手的抓取模式以及预先标注的稳定抓取判别信息;使用训练数据集中的触觉数据、抓取模式和稳定抓取判别信息,对初始稳定抓取判别模型进行训练,得到目标稳定抓取判别模型;使用训练数据集中的触觉数据、手指关节角度和抓取模式,对初始抓取调整模型进行训练,得到目标抓取调整模型;基于目标稳定抓取判别模型与目标抓取调整模型,生成抓取控制器;将触觉数据、机器人的多指灵巧手的手指关节角度和抓取模式,输入抓取控制器,以实现对机器人的抓取控制。
-
公开(公告)号:CN119251165A
公开(公告)日:2025-01-03
申请号:CN202411296924.0
申请日:2024-09-18
Applicant: 北京邮电大学
IPC: G06T7/00 , G06V10/764 , G06V10/774
Abstract: 本发明公开了一种轮式移动平台地形检测方法,包括:获取地形分类数据集,所述数据集包含轮式移动平台行进过程中所采集的触觉序列数据对应的触觉图像流,以及预先标注的地形类别信息;使用地形分类数据集中的触觉图像流对初始分类模型进行训练,得到地形分类模型;将待检测的触觉图像流输入地形分类模型,得到移动平台的地形检测结果。本发明通过轮式移动平台地形检测方法有效检测轮式移动平台行进过程中的地形类别,使小车避开易下陷和颠簸的地形,防止损坏,提高任务成功率。
-
公开(公告)号:CN118682770A
公开(公告)日:2024-09-24
申请号:CN202410978677.6
申请日:2024-07-19
Applicant: 北京邮电大学
IPC: B25J9/16
Abstract: 本发明公开了一种机器人抓取通用数学表征方法,包括:根据机器人多指灵巧手三维模型,获得手指关节的基坐标系、手指关节坐标系、手指关节坐标系相对于手指关节的基坐标系的齐次变换矩阵;进而获得触觉传感器相对于手指关节的安装位置信息;获得深度相机相对于目标位置的齐次变换矩阵;利用触觉传感器与深度相机,分别采集触觉数据和视觉数据;利用机器人操作系统平台,获得机器人的末端方向、末端位置以及机器人多指灵巧手的手指关节角度、抓取模式、抓取状态;最后构建机器人多指灵巧手的数学表征信息。根据本发明实施例提供的技术方案,可实现机器人抓取通用数学表征,为后续针对机器人多指灵巧手的研究提供数学模型基础。
-
-
-