一种基于视触融合的舱内抓取目标表征方法

    公开(公告)号:CN119991944A

    公开(公告)日:2025-05-13

    申请号:CN202510040405.6

    申请日:2025-01-10

    Abstract: 本发明公开了一种基于视触融合的舱内抓取目标表征方法,包括:获取基于视触融合信息的舱内抓取目标三维模型重建数据集;使用所述数据集对初始的三维模型重建网络进行训练,得到基于视触融合信息的舱内抓取目标三维模型重建网络;将需要重建三维模型的舱内目标单视角视觉点云、视野盲区触觉点云输入基于视触融合信息的舱内抓取目标三维模型重建网络,得到舱内抓取目标三维模型。本发明通过视触融合的方式以较高精度重建舱内抓取目标三维模型,弥补基于机器人视觉的抓取目标三维模型重建方法不足,提高机器人抓取目标重建的精度,进而保证机器人空间站舱内抓取任务的可靠性。

    一种移动机器人目标搜寻方法及系统

    公开(公告)号:CN119888175A

    公开(公告)日:2025-04-25

    申请号:CN202411936024.8

    申请日:2024-12-26

    Abstract: 本发明提供一种移动机器人目标搜寻方法及系统,方法包括:S1、获取目标物品描述,根据目标物体的呈现形式,对目标物体进行特征编码,得到关键点矩阵;利用移动机器人执行规划导航算法,探索未知环境,根据关键点矩阵,读取RGBD相机数据,执行图像分割算法,构建语义栅格地图,确定敏感目标;利用移动机器人,对敏感目标与目标物品进行匹配操作,确定待筛选目标物品;对已发现的待筛选目标物品,进行的筛选、人工干预机制,得到一次筛选结果;根据一次筛选结果,对目标物品进行二次搜寻,在缓存的语义栅格地图中寻找并确定最终目标物品。本发明解决了对场景真实地图的依赖、传感设备成本高以及数据存储开销和数据处理复杂度高的技术问题。

    一种基于已知点云地图的动态场景定位方法及装置

    公开(公告)号:CN119845264A

    公开(公告)日:2025-04-18

    申请号:CN202411863016.5

    申请日:2024-12-17

    Abstract: 本发明公开了一种基于已知点云地图的动态场景定位方法及装置,该方法包括:获取目标动态场景在不同时刻对应的激光点云数据以及惯性测量数据,生成若干帧点云数据以及若干帧惯性测量数据;针对任一当前帧点云数据:确定当前帧点云数据对应的当前帧惯性测量数据;基于当前帧惯性测量数据和当前帧点云数据,对机器人观测位姿进行估计,输出当前位姿估计值;基于当前位姿估计值调整当前帧点云数据对应的位姿,得到目标帧点云数据;对目标帧点云数据进行动态点云滤除处理,输出静态帧点云数据;基于静态帧点云数据和目标动态场景的历史点云数据,进行全局优化处理,输出机器人的当前最优观测位姿。由此,能够确保目标动态场景下重复定位的一致性。

    一种多地图路径规划方法及装置
    6.
    发明公开

    公开(公告)号:CN119803502A

    公开(公告)日:2025-04-11

    申请号:CN202411966402.7

    申请日:2024-12-27

    Abstract: 本发明提供了一种多地图路径规划方法及装置,该方法包括:S1,获取综合地图的信息、路径规划的起始点和目标点位置,其中,综合地图为:由多张地图的信息整合成的地图集;综合地图的信息包括:综合地图中每张地图预定的权重、障碍物分布以及综合地图中每个节点的障碍物类型;障碍物类型包括:随机障碍物和固定障碍物;多张地图包括:不同的场景或不同约束条件的地图;不同约束条件包括:不同的环境、不同的时间层次、不同的障碍物分布和/或不同的预设场景权重;S2,根据综合地图的信息和预定的路径规划算法计算从起始点到目标点的最优路径。利用上述技术方案,可提升路径规划在复杂多变环境下的精度与效率,保证路径规划的高度稳定性和适应性。

    一种针对人形机器人双臂协同的控制方法及装置

    公开(公告)号:CN119748429A

    公开(公告)日:2025-04-04

    申请号:CN202411791525.1

    申请日:2024-12-06

    Abstract: 本发明公开了一种针对人形机器人双臂协同的控制方法及装置,该方法包括:获取人形机器人双臂执行目标任务过程中所生成的动作图像序列;确定动作图像序列对应的第一特征向量序列、机械臂关节位置向量序列,以及目标掩膜图像序列对应的第二特征向量序列;对第一特征向量序列、第二特征向量序列、机械臂关节位置向量序列,以及动作图像序列对应的目标风格变量进行编码处理,输出特征键‑值对序列;将特征键‑值对序列以及人形机器人本体位置向量共同作为训练样本;对若干训练样本进行有监督的模仿学习,生成用于双臂协同的运动控制模型。由此,基于运动控制模型能够使得人形机器人双臂完成更复杂的长动作序列任务,有效提高了目标任务执行的成功率。

    基于改进的多曝光图像融合的结构光三维测量方法及系统

    公开(公告)号:CN119554992A

    公开(公告)日:2025-03-04

    申请号:CN202411610600.X

    申请日:2024-11-12

    Abstract: 本发明提供基于改进的多曝光图像融合的结构光三维测量方法及系统,方法包括:利用白光投射下不同曝光时长的图像制作掩模;利用掩模图像与光栅投射下相应曝光时长的条纹图像序列相乘后进行线性变换;将线性变换后的条纹图像序列叠加并进行归一化处理,使用伽马函数对其进行暗部处理后进行灰度值还原,得到适用于三维重建的条纹图像;最后通过相位解算和标定参数得到三维点云。本发明解决了系统复杂度及制造维护成本较高、由于物体局部高光而导致的点云缺失,以及复杂几何形状物体反射信号不清晰的技术问题。

    基于磁力反馈的移动式机器人多人协同交互方法及系统

    公开(公告)号:CN119388433A

    公开(公告)日:2025-02-07

    申请号:CN202411723333.7

    申请日:2024-11-28

    Abstract: 本发明涉及机器人协同交互技术领域,公开了一种基于磁力反馈的移动式机器人多人协同交互方法及系统,方法包括:设定操作参数,选择操作模式;通过交互装置接收操作人员的手部运动信息,作为机器人的操作信息;所述交互装置能够跟随操作人员手部移动;依据力补偿算法,改变交互装置向操作人员手部传递的反馈力;根据单个操作人员的操作信息生成运动指令或者根据多个操作人员的操作信息生成运动指令,对运动指令进行预测仿真,将通过预测仿真验证后的运动指令发送给移动机器人执行。本发明使用移动机器人作为磁场装置的载体进行操作人员手部位置的实时跟踪,并结合混合现实装置统一用户操作空间与反馈空间,解决了操作空间与反馈空间分离的缺陷。

Patent Agency Ranking