一种机器人动作生成模型训练方法和动作生成方法

    公开(公告)号:CN119526414A

    公开(公告)日:2025-02-28

    申请号:CN202411871795.3

    申请日:2024-12-18

    Applicant: 同济大学

    Abstract: 本发明涉及一种机器人动作生成模型训练方法和动作生成方法,模型训练步骤包括:构建汽车线束操作数据集,并提取人体姿态;基于所述的数据集和人体姿态构建指令集;预训练运动分词器;获取文本‑动作词汇表;基于所述的数据集、指令集和文本‑动作词汇表预训练语言模型;构建操作数据集,基于操作数据集对预训练后的语言模型进行微调,完成训练。所述的生成方法利用经过模型训练方法训练好的模型输出人形动作序列,并将人形动作序列重定向于机器人上完成机器人动作生成。与现有技术相比,本发明提高了生成模型的泛用性,还可生成更符合汽车线束操作的机器人动作,提高了机器人操作汽车线束的灵活性。

    一种腿部受损的四足机器人运动控制方法

    公开(公告)号:CN118915802A

    公开(公告)日:2024-11-08

    申请号:CN202410971117.8

    申请日:2024-07-19

    Applicant: 同济大学

    Abstract: 本发明涉及一种腿部受损的四足机器人运动控制方法,针对四足机器人构建CPG节律控制器;当四足机器人腿部发生故障时进行四足机器人的正常以及腿部受损四足机器人运动策略进行切换;其中,四足机器人运动策略采用双层强化学习框架:高层强化学习根据当前机器人状态和参考命令生成CPG参数,并生成关节参考轨迹;底层强化学习对生成的参考关节轨迹进行微调,得到目标关节角度;累加关节参考轨迹与目标关节角度,并进一步计算得到当前机器人关节扭矩指令。本发明使机器人能够模仿正常运动及腿部受伤时的步态性质,并通过双层PPO强化学习模型对CPG的参数以及关节角度进行调节,解决了腿部受损四足机器人行走鲁棒性和环境适应性的难题。

    一种基于BIM结构信息的VSLAM定位方法

    公开(公告)号:CN115727854B

    公开(公告)日:2024-11-05

    申请号:CN202211503493.1

    申请日:2022-11-28

    Applicant: 同济大学

    Abstract: 本发明公开了一种基于BIM结构信息的VSLAM定位方法,属于室内定位领域,包括移动智能体、BIM数据库、边缘计算设备、用户接口,移动智能体采集视觉传感器获取的RGB/RGBD图像,控制移动机器人位姿;BIM数据库存储从BIM模型中提取的建筑物三维结构和语义信息;边缘计算设备和移动智能体相连接,包括CAD重建网络和VSLAM算法两个主要线程,通过CAD重建网络求解9‑DoFCAD模型和VSLAM算法求解当前位姿、优化轻量化结构地图;用户接口接收用户命令,获取移动智能体位置,发送移动智能体控制信号并监控边缘计算设备运行情况,本发明利用BIM模型提供的结构化信息为机器人提供准确的定位源,同时避免传统的建图任务,具有轻量化、精度高等优势。

    动静态节点耦合的虫害重点区域感知的覆盖方法及系统

    公开(公告)号:CN115017704B

    公开(公告)日:2024-09-06

    申请号:CN202210635206.6

    申请日:2022-06-07

    Applicant: 同济大学

    Abstract: 本发明涉及无线传感器网络技术领域,特别是指一种动静态节点耦合的虫害重点区域感知的覆盖方法及系统,该方法包括:获取移动感知节点位置、障碍物位置、静态感知节点位置以及虫害重点区域位置;确定障碍物产生的第一斥力势场以及移动感知节点受障碍物的总斥力;确定静态感知节点产生的第二斥力势场以及移动感知节点受静态感知节点的总斥力;确定虫害重点区域产生的第三引力势场以及移动感知节点受虫害重点区域的引力;确定移动感知节点运动时受到的合力;基于合力的引导,完成面向森林虫害重点区域感知的动静态节点耦合覆盖。采用本发明,可以有效避免感知节点重复覆盖导致的资源浪费,从而完成动静态节点耦合的协同覆盖任务。

    基于在线工艺库自学习的全铝车身铆接系统及其实现方法

    公开(公告)号:CN111199072B

    公开(公告)日:2024-03-26

    申请号:CN201911282346.4

    申请日:2019-12-13

    Applicant: 同济大学

    Abstract: 本发明涉及一种基于在线工艺库自学习的全铝车身铆接系统及其实现方法,系统包括:在线铆接工艺库云服务器,包括基于正交试验设计的工艺数据库、数据存储单元、铆接工艺CAE仿真分析平台;全铝车身协同铆接作业网络,包括作为网络节点的多台铆接机器人,铆接机器人与在线铆接工艺库云服务器远程信息交换;全铝车身铆接过程检测反馈系统,与在线铆接工艺库云服务器连接,包括多个视觉摄像头、多个激光雷达以及多传感器信息融合单元。与现有技术相比,本发明在线指导铆接机器人进行工艺操作并对铆接过程进行实时监测分析,提高了全全铝车身铆接生产线的智能化水平,在保证效率与质量的前提下,加快新材料新工艺的应用。

    基于视觉-激光雷达耦合的贫纹理隧洞建模方法及系统

    公开(公告)号:CN113763548B

    公开(公告)日:2024-02-27

    申请号:CN202110939893.6

    申请日:2021-08-17

    Applicant: 同济大学

    Abstract: 本发明涉及一种基于视觉‑激光雷达耦合的贫纹理隧洞建模方法及系统,包括以下步骤:获取深度相机采集的点云信息、激光雷达采集的激光信息以及无人机的运动信息;基于激光信息生成栅格地图,基于运动信息得到无人机的位姿信息;采用贝叶斯融合方法将点云信息、栅格地图和位姿信息进行融合,得到地图模型;基于上一时刻的地图模型,通过特征匹配对最新的地图模型进行修正。与现有技术相比,本发明融合深度相机和激光雷达进行SLAM建图,充分利用激光雷达较大的范围信息和深度相机较为丰富的局部信息,互补提高了信息的精确度,使地图模型的建立更加接近于真实隧洞环境。

    低照度条件下快速移动目标多视角协同跟踪方法及装置

    公开(公告)号:CN116359910A

    公开(公告)日:2023-06-30

    申请号:CN202310056537.9

    申请日:2023-01-20

    Applicant: 同济大学

    Abstract: 本发明公开了一种低照度条件下快速移动目标多视角协同跟踪方法及装置,所述方法包括低照度条件下快速移动目标多视角跟踪算法和无人机集群协同跟踪算法;利用无人机搭载的毫米波雷达传感器、RGB视觉传感器与红外视觉传感器进行多源环境感知;通过三时空异构对齐算法将多源感知数据在时间和空间维度上归一化;将时空归一化后的多源融合感知数据输入多源融合感知特征计算网络进行当前帧下被追踪目标的世界坐标计算;将计算结果与上一帧的计算结果进行对比,判断被追踪目标在世界坐标系下的位置和移动方向的变化;通过集群通信共享被追踪目标的世界坐标信息,使用多智能体强化学习进行无人机集群的轨迹制定与更新,实现无人机集群协同跟踪。

Patent Agency Ranking