-
公开(公告)号:CN119991944A
公开(公告)日:2025-05-13
申请号:CN202510040405.6
申请日:2025-01-10
Applicant: 江淮前沿技术协同创新中心 , 北京邮电大学
Abstract: 本发明公开了一种基于视触融合的舱内抓取目标表征方法,包括:获取基于视触融合信息的舱内抓取目标三维模型重建数据集;使用所述数据集对初始的三维模型重建网络进行训练,得到基于视触融合信息的舱内抓取目标三维模型重建网络;将需要重建三维模型的舱内目标单视角视觉点云、视野盲区触觉点云输入基于视触融合信息的舱内抓取目标三维模型重建网络,得到舱内抓取目标三维模型。本发明通过视触融合的方式以较高精度重建舱内抓取目标三维模型,弥补基于机器人视觉的抓取目标三维模型重建方法不足,提高机器人抓取目标重建的精度,进而保证机器人空间站舱内抓取任务的可靠性。
-
公开(公告)号:CN118700147A
公开(公告)日:2024-09-27
申请号:CN202410929447.0
申请日:2024-07-11
Applicant: 北京邮电大学 , 江淮前沿技术协同创新中心
IPC: B25J9/16
Abstract: 本发明公开了一种机器人抓取控制方法,包括:获取训练数据集,训练数据集包含机器人的多指灵巧手抓取过程中所采集的触觉数据、机器人的多指灵巧手的手指关节角度、机器人的多指灵巧手的抓取模式以及预先标注的稳定抓取判别信息;使用训练数据集中的触觉数据、抓取模式和稳定抓取判别信息,对初始稳定抓取判别模型进行训练,得到目标稳定抓取判别模型;使用训练数据集中的触觉数据、手指关节角度和抓取模式,对初始抓取调整模型进行训练,得到目标抓取调整模型;基于目标稳定抓取判别模型与目标抓取调整模型,生成抓取控制器;将触觉数据、机器人的多指灵巧手的手指关节角度和抓取模式,输入抓取控制器,以实现对机器人的抓取控制。
-
公开(公告)号:CN118342515A
公开(公告)日:2024-07-16
申请号:CN202410620117.3
申请日:2024-05-17
Applicant: 北京邮电大学
Abstract: 本发明实施例提供了一种机器人旋拧状态判别方法,包括:创建柔性触觉传感器,以及,确定传感数据伪影噪声的消除算法,以及,基于所述柔性触觉传感器和所述消除算法,建立触觉数据与旋拧状态的映射关系;依据触觉数据的时序特性,构建时序性触觉数据处理模块;然后,依据触觉数据与旋拧状态的映射关系,调用时序性触觉数据处理模块,构建旋拧状态估计网络;依据所述旋拧状态估计网络以及触觉数据,执行机器人自主装配操作。最终估计所得的旋拧执行状态准确度、均方误差等方面的性能要优于其他网络。
-
公开(公告)号:CN117961908A
公开(公告)日:2024-05-03
申请号:CN202410296321.4
申请日:2024-03-14
Applicant: 北京邮电大学
IPC: B25J9/16
Abstract: 本发明实施例提供了一种机器人抓取获取方法,包括:模拟人类抓取操作构建了结合抓取姿态和接触力信息的抓取表示方法;建立抓取接触模型,并获取稳定无碰撞抓取约束条件,将抓取接触模型和稳定无碰撞抓取约束条件作为构建机器人稳定抓取的评价指标;依据抓取目标与接触力之间的映射关系,训练机器人抓取力范围估计模块;然后,依据抓取表示算法、稳定抓取评价指标、抓取力范围估计模块和抓取姿态与抓取力映射关系,构建融合视触觉的抓取生成网络,所述抓取生成网络用于检测对应目标的机器人抓取姿态和抓取力。根据本发明实施例提供的技术方案可以获得稳定性、准确度等方面的更优的机器人抓取位姿和抓取力,从而更好的驱动机器人实现灵巧抓取。
-
公开(公告)号:CN119251165A
公开(公告)日:2025-01-03
申请号:CN202411296924.0
申请日:2024-09-18
Applicant: 北京邮电大学
IPC: G06T7/00 , G06V10/764 , G06V10/774
Abstract: 本发明公开了一种轮式移动平台地形检测方法,包括:获取地形分类数据集,所述数据集包含轮式移动平台行进过程中所采集的触觉序列数据对应的触觉图像流,以及预先标注的地形类别信息;使用地形分类数据集中的触觉图像流对初始分类模型进行训练,得到地形分类模型;将待检测的触觉图像流输入地形分类模型,得到移动平台的地形检测结果。本发明通过轮式移动平台地形检测方法有效检测轮式移动平台行进过程中的地形类别,使小车避开易下陷和颠簸的地形,防止损坏,提高任务成功率。
-
公开(公告)号:CN118682770A
公开(公告)日:2024-09-24
申请号:CN202410978677.6
申请日:2024-07-19
Applicant: 北京邮电大学
IPC: B25J9/16
Abstract: 本发明公开了一种机器人抓取通用数学表征方法,包括:根据机器人多指灵巧手三维模型,获得手指关节的基坐标系、手指关节坐标系、手指关节坐标系相对于手指关节的基坐标系的齐次变换矩阵;进而获得触觉传感器相对于手指关节的安装位置信息;获得深度相机相对于目标位置的齐次变换矩阵;利用触觉传感器与深度相机,分别采集触觉数据和视觉数据;利用机器人操作系统平台,获得机器人的末端方向、末端位置以及机器人多指灵巧手的手指关节角度、抓取模式、抓取状态;最后构建机器人多指灵巧手的数学表征信息。根据本发明实施例提供的技术方案,可实现机器人抓取通用数学表征,为后续针对机器人多指灵巧手的研究提供数学模型基础。
-
-
-
-
-