一种人形机器人步态分析与识别及机器人控制方法

    公开(公告)号:CN118415626A

    公开(公告)日:2024-08-02

    申请号:CN202410506147.1

    申请日:2024-04-25

    Applicant: 同济大学

    Abstract: 本发明公开了一种人形机器人步态分析及机器人控制方法,涉及机器人控制技术领域。利用采集到的步态数据预训练步态分析与识别模型,用于评估人形机器人的步态参数,所述的步态参数包括:步态对称性、步态一致性、动作、步态相位以及步态健康程度;基于预训练的步态分析与识别模型实时估计出的步态参数。之后将预训练的步态分析与识别模型部署到人形机器人控制策略中;将步态分析与识别模型实时估计出的步态参数加入人形机器人控制策略的状态空间,由控制策略生成并执行相应的行为动作。本发明通过评估人形机器人在运动时的对称性、一致性,同时识别机器人的动作及其步态相位,以量化机器人的步态参数,以提高机器人在学习过程中的表现。

    基于运动重建的跌倒检测的仿真IMU训练数据生成方法、跌倒检测方法及装置

    公开(公告)号:CN118298255A

    公开(公告)日:2024-07-05

    申请号:CN202410169455.X

    申请日:2024-02-06

    Applicant: 同济大学

    Abstract: 本发明涉及一种基于运动重建的跌倒检测的仿真IMU训练数据生成方法、跌倒检测方法及装置,其中生成方法包括:步骤S1:对视频片段进行跌倒状态标注;步骤S2:得到各人体关键点的二维坐标;步骤S3:得到各关键点的三维坐标;步骤S4:基于存在先验角度的关节生成先验角度值序列;步骤S5:将对应于所述关节的模拟角度的仿真骨骼模型作为当前时刻的姿态识别结果;步骤S6:计算各测量部位的三轴加速度和速度,连同对应的跌倒状态标注结果,作为仿真IMU训练数据。与现有技术相比,本发明实现了跨模态数据生成,从视频到惯性测量单元,从而有效地解决了传统IMU数据集受限和实验范式不一致的问题。

    一种基于单视角RGBD融合网络的手物交互重建方法

    公开(公告)号:CN118071934A

    公开(公告)日:2024-05-24

    申请号:CN202410368408.8

    申请日:2024-03-28

    Applicant: 同济大学

    Abstract: 本发明涉及一种基于单视角RGBD融合网络的手物交互重建方法,步骤包括:将手物交互的对齐RGBD图像的深度图转化为点云,并应用特征编码器从中提取RGB特征和点特征;融合所提取的RGB特征和点特征,生成密集RGBD特征;采用SDF特征编码器将密集RGBD特征生成手物形状编码,通过手物几何特征估计模块预测手物的姿态参数和物体位置;通过几何傅里叶特征编码模块处理基于每个三维查询点相对于手腕的旋转和平移以及物体的平移,获得手物几何编码;采用手和物体SDF解码器利用手物形状编码和手物几何编码估计每个三维查询点的SDF重建手和物体形状。与现有技术相比,本发明更充分融合了RGB和深度信息,实现了几何精细的手物交互重建。

    一种基于多维赛博空间的移动智能体数字孪生系统

    公开(公告)号:CN112115607B

    公开(公告)日:2024-04-26

    申请号:CN202010970455.1

    申请日:2020-09-16

    Applicant: 同济大学

    Abstract: 本发明涉及一种基于多维赛博空间的移动智能体数字孪生系统,具体包括以下结构:物理空间试验场,为移动智能体测试提供运动空间作为简易物理测试环境;赛博空间运维系统,根据物理空间试验场,进行数据采集融合处理,利用VR技术、集合实体建模技术和多学科联合仿真技术构建的多维映射赛博空间的运行载体;高通量数据传输信道,为赛博空间运维系统与物理空间试验场的信息流交互提供多输入多输出数据传输通道;虚实多维空间可视化系统,提供移动智能体试验测试过程的可视化推演及人机交互。与现有技术相比,本发明具有多对一的虚实交互孪生测试能力,提升了移动智能体试验的泛化能力、强化了试验测试结果的同时降低了试验研发成本等优点。

    一种基于平行对称视触觉传感器的触觉特征提取方法及装置

    公开(公告)号:CN117788837A

    公开(公告)日:2024-03-29

    申请号:CN202311708794.2

    申请日:2023-12-13

    Applicant: 同济大学

    Abstract: 本发明涉及一种基于平行对称视触觉传感器的触觉特征提取方法及装置,其中,该方法包括:获取视触觉传感器输出的一对触觉图像;对所述一对触觉图像进行空畸变校正和空间一致性标定;分别采用高效滤波算法、采用分层Canny边缘检测算法、采用Poisson法对校正后的触觉图像进行特征提取,分别得到触觉特征光流场、得到触觉特征边缘场、得到触觉特征深度场;根据接触表面压力与触觉特征深度场间的非线性对应关系曲线,建立触觉特征接触力场;将触觉特征光流场、边缘场、深度场以及接触力场线性叠加,构建四维度的触觉特征。与现有技术相比,本发明的方法具有计算速度快,满足快速实时性的需要,还能够解决超分辨率、高精度、多维度触觉特征提取,提取的触觉特征具有更全面的触觉特征表示,本发明的装置采用了一体式模块化,具有体积小等优点。

    自供电的自适应变刚度复合阻尼的非线性能量阱

    公开(公告)号:CN117779975A

    公开(公告)日:2024-03-29

    申请号:CN202410007944.5

    申请日:2024-01-03

    Applicant: 同济大学

    Abstract: 本发明提供了一种自供电的自适应变刚度复合阻尼的非线性能量阱,包括:复合阻尼部分、非线性能量阱部分、控制部分和自供电部分。本发明所提出的自供电的自适应变刚度复合阻尼的非线性能量阱,可通过改变形状记忆合金弹簧的温度实时调节非线性能量阱的刚度;通过控制所述步进式推拉杆改变所述导体板与所述永磁铁之间的磁导间距实现非线性能量阱的阻尼实时调节,结合包裹式钢珠间的碰撞形成的碰撞阻尼和箱体内的液体振荡形成的液体阻尼组成复合阻尼,以确保最佳的振震双控效果;利用箱体内振荡的液体带动齿轮旋转,通过螺杆连接至永磁直流发电机向控制中枢供电,保障了极端灾害下的供能稳定性。

    基于触觉反馈的二指夹具可变形物体精细抓取系统

    公开(公告)号:CN117656039A

    公开(公告)日:2024-03-08

    申请号:CN202311505097.7

    申请日:2023-11-13

    Applicant: 同济大学

    Abstract: 本发明提出了基于触觉反馈的二指夹具可变形物体精细抓取系统。该系统基于可变形物体抓取平台,集成了运动控制模块、触觉感知模块、数据处理模块。所述可变形物体抓取平台,包括六自由度协作机械臂、二自由度移动平台、PC上位机、机械臂控制柜、自适应电动夹爪、视触觉传感器;所述运动控制模块为数据处理模块提供机械臂当前状态和需要执行的动作信息输入,所述触觉感知模块为数据处理模块提供触觉信息输入,所述数据处理模块的数据处理流程处理以上输入后输出机械臂动作,并输入到所述运动控制模块中,控制六自由度协作机械臂的下一步动作,形成闭环控制。本发明系统具有运行速度快、抓取过程稳定、精细控制抓取过程等优点。

    一种基于虚拟演示的机器人任务知识自生成系统

    公开(公告)号:CN113780560B

    公开(公告)日:2024-02-27

    申请号:CN202111009277.7

    申请日:2021-08-31

    Applicant: 同济大学

    Abstract: 本发明涉及一种基于虚拟演示的机器人任务知识自生成系统,包括抽象语义规则生成模块和在线动作分割识别模块。抽象语义规则生成模块包括虚拟演示单元、抽象语义提取单元和人类活动语义规则生成单元,将人类在虚拟空间中的动作转换为任务数据,根据任务数据提取语义信息,根据语义信息结合动作类型生成任务语义规则模型,在线动作分割识别模块包括知识库单元、有向概率任务图单元和动作处理单元,根据任务语义规则模型将动作进行分割及识别,根据识别结果生成任务图。与现有技术相比,本发明具有解释性强、通用性广和信息全面等优点。

    基于强化学习的感驱一体软体机器人自主变形系统及方法

    公开(公告)号:CN117182908A

    公开(公告)日:2023-12-08

    申请号:CN202311245109.7

    申请日:2023-09-26

    Applicant: 同济大学

    Abstract: 本发明涉及一种基于强化学习的感驱一体软体机器人自主变形系统及方法,其中方法包括以下步骤:调整气动软体机械手初始位姿;软体机械手轻触待夹取物体,自感知模块收集待夹取物体形状特征信息;形状判别模块根据形状特征信息判别物体形状;强化学习训练模块根据物体形状判别信息和形状特征信息,训练强化学习模型,确定软体机械手的位姿并提供相应变形指令;自主驱动变形模块根据变形指令改变气动软体机械手形状;软体机械手使用调整后的位姿和形状重新完成物体夹取动作,若成功抓取则流程结束;若未成功抓取,则更新形状特征信息,进行位姿修正。与现有技术相比,本发明具有学习物体形状特点而实现自适应变形以提高抓取效率等优点。

Patent Agency Ranking