一种基于合同网的异构多机器人协同调度方法与系统

    公开(公告)号:CN118229023A

    公开(公告)日:2024-06-21

    申请号:CN202410469618.6

    申请日:2024-04-18

    Applicant: 山东大学

    Abstract: 本发明提出了一种基于合同网的异构多机器人协同调度方法及系统,为降低通信频率并实现更高效的任务招标,引入机器人能力表,每个机器人存储有其他机器人执行不同任务类型对应的能力表,招标者在每次任务招标时无需通过广播与所有机器人进行通信,可直接确定能够完成订单对应任务的候选投标机器人;通过引入机器人完成标书中执行任务类型对应的信用度,并结合候选投标机器人的完成任务的信用度结合路径消耗,得到投标值,招标者机器人对比各个候选投标机器人的投标值的大小确定最终的投标机器人。通过能力值和信用度的引入,为招标者机器人提供更准确的参考依据,从而实现更合理的任务分配。

    一种应用于动态环境的激光SLAM系统及方法

    公开(公告)号:CN114937083B

    公开(公告)日:2024-04-02

    申请号:CN202210586859.X

    申请日:2022-05-27

    Applicant: 山东大学

    Abstract: 本发明属于移动机器人自主定位领域,提供了一种应用于动态环境的激光SLAM系统及方法,采集机器人当前所在位置的周围环境信息,得到当前环境的三维点云数据;对当前环境的三维点云数据进行球面投影,生成规则的顶点图;基于规则的顶点图,利用预先训练好的激光SLAM模型进行位姿估计和地图构建;本发明解决现有技术中的不足,即环境中动态物体的存在会破坏SLAM的静态环境假设、激光里程计环节对深度学习的表的能力应用不充分,只简单地利用深度学习方法增加语义约束、闭环检测环节没有关注到场景中不同物体间的拓扑关系、在运动物体剔除方法中应用全类别语义分割造成信息浪费,增加无用人工标记成本和动态物体分割不完整等问题。

    面向装配任务的机械臂抓取与装配控制方法及系统

    公开(公告)号:CN117359637A

    公开(公告)日:2024-01-09

    申请号:CN202311500210.2

    申请日:2023-11-10

    Applicant: 山东大学

    Abstract: 本发明属于机械臂装配控制技术领域,提供了面向装配任务的机械臂抓取与装配控制方法及系统,其技术方案为:根据下游的装配任务,对物体的姿态进行调整,最终选择合适的抓取与装配策略。首先对待抓取物体姿态进行预测,预测的结果与任务编码共同构成状态信息,经深度强化学习策略网络映射为连续多次的抓取与放置动作序列,使得机器人将物体调整为适合进行相应装配任务的姿态,最后选择合适的抓取并执行装配动作以完成下游任务。

    基于落足调整的四足机器人动步态稳定控制方法及系统

    公开(公告)号:CN111913490B

    公开(公告)日:2023-11-14

    申请号:CN202010831977.3

    申请日:2020-08-18

    Applicant: 山东大学

    Abstract: 本申请公开了基于落足调整的四足机器人动步态稳定控制方法及系统,包括:对四足机器人建立基于躯干的移动坐标系和基于髋关节的局部坐标系;所述四足机器人的腿足均具有三个自由度;在基于躯干的移动坐标系和基于髋关节的局部坐标系下,通过建立的四足机器人模型,推导出机器人运动学方程,进而设计机器人初始步态;采集四足机器人的躯干俯仰角度和翻滚角度,从而得到四足机器人的当前躯干姿态;将四足机器人的当前躯干姿态与初始步态进行比较,计算出四足机器人的最佳落足点;根据四足机器人的最佳落足点,保持四足机器人稳定运动;通过调整四足机器人对角腿的落足时间差,实现四足机器人重心位置的调整,进而实现四足机器人重心自平衡。

    搜救机器人手臂辅助同时定位及构建环境地图系统及方法

    公开(公告)号:CN106679661B

    公开(公告)日:2023-08-22

    申请号:CN201710182892.5

    申请日:2017-03-24

    Applicant: 山东大学

    Abstract: 本发明公开了一种搜救机器人手臂辅助同时定位及构建环境地图系统及方法,其中,该系统包括:机器人本体,其上安装有机器人控制器、定位传感器模块、图像采集模块和机器人手臂,机器人手臂与手臂驱动机构相连,手臂驱动机构与机器人控制器相连,定位传感器模块和图像采集模块分别与机器人控制器相连;定位传感器模块实时检测指定目标的位置信息并传送至机器人控制器内,图像采集模块实时采集机器人周围的图像信息并传送至机器人控制器内;机器人控制器用于根据接收到的图像信息以及指定目标的位置信息进行点云匹配来构建出目标环境地图;机器人控制器用于根据构建出的目标环境地图来实时向手臂驱动机构输出脉冲信号来控制机器人手臂实现搜救工作。

    基于仿人思路的机器人同步语义定位与建图方法及系统

    公开(公告)号:CN116337068A

    公开(公告)日:2023-06-27

    申请号:CN202310207141.X

    申请日:2023-02-28

    Applicant: 山东大学

    Abstract: 本发明公开的基于仿人思路的机器人同步语义定位与建图方法及系统,包括:获取每一帧的环境图片和环境的空间结构点云数据;对环境图片进行识别,获得定位路标的观测直线;对所有观测直线进行簇划分,将属于同一定位路标的观测直线划分为一簇;通过最小二乘法,对每个簇中的观测直线进行分析,确定每个定位路标的空间坐标;对定位路标的空间坐标进行优化,获得定位路标优化后坐标;根据所有定位路标优化后坐标,获得定位路标图;将局部路径上的每一帧点云数据向水平方向上投影,生成线段图;将所有线段图进行关联,获得环境结构图;将定位路标图和环境结构图组合,形成语义地图。实现了机器人同步语义定位与建图。

    分布式多机器人导航方法、系统、存储介质及设备

    公开(公告)号:CN115752473A

    公开(公告)日:2023-03-07

    申请号:CN202211465370.3

    申请日:2022-11-22

    Applicant: 山东大学

    Abstract: 本发明涉及分布式多机器人导航方法、系统、存储介质及设备,包括以下步骤:获取机器人在指定时刻的RGB图像、激光雷达数据以及运动矢量数据,基于视觉编码器提取RGB图像和激光雷达数据中的特征,并将RGB图像的特征转换为视觉特征隐向量;将视觉特征隐向量和激光雷达特征通过传感器融合网络进行融合,得到传感器级别的特征向量;基于图神经网络,将机器人通信范围内所有邻居机器人的传感器级别特征向量聚合,得到智能体级别的邻域感知向量;将连接的传感器级别的特征向量和智能体级别的邻域感知向量作为行为者网络和批评者网络的输入,以目标到达、避免碰撞和时间效率设定奖励函数得到机器人最优的导航策略,实现对机器人团队的协同导航。

    基于深度学习的室内动态场景的视觉SLAM方法及系统

    公开(公告)号:CN115393538A

    公开(公告)日:2022-11-25

    申请号:CN202211008215.9

    申请日:2022-08-22

    Applicant: 山东大学

    Abstract: 本公开提供了一种基于深度学习的室内动态场景的视觉SLAM方法及系统,其属于视觉SLAM技术领域,所述方案包括:实时获取室内动态场景下的图像信息;基于GCNv2算法对所述图像信息进行特征提取;基于提取的特征,利用动态点去除算法去除所述图像信息中的动态特征点;基于图像信息中剩余的静态特征点,获得图像信息中的静态关键帧,并基于获得的静态关键帧进行点云地图构建,生成基于静态关键帧的稠密点云;获取静态关键帧位姿,并根据静态关键帧在三维空间中的位置对所述稠密点云进行拼接和滤波,获得静态场景点云地图。

Patent Agency Ranking