-
公开(公告)号:CN115556112B
公开(公告)日:2025-03-21
申请号:CN202211336513.0
申请日:2022-10-28
Applicant: 北京理工大学
Abstract: 本发明公开了一种基于数字孪生的机器人遥操作方法及系统,通过建立数字孪生体模型,根据机器人实际工作环境构建机器人数字运行场景,同时控制机器人和机器人几何模型运动;根据关节运动学模型预测机器人的运动轨迹,并通过机器人实体实时动态和数字孪生体模型的实时特征参数对机器人进行可视化监测,以实现对机器人的遥操作,可以给遥操作者更加直观且快速的视觉反馈,数字孪生体模型与实体机器人同时接受来自操作者的控制指令,操作者可以通过观察数字孪生体模型得到该控制指令的效果。
-
公开(公告)号:CN112232297B
公开(公告)日:2023-08-22
申请号:CN202011243048.7
申请日:2020-11-09
Applicant: 北京理工大学
IPC: G06V20/13 , G06V10/764 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明公开了基于深度联合卷积激活的遥感图像场景分类方法,包括:利用至少两个卷积层中的卷积激活图进行特征提取,得到图像浅层纹理信息;利用图像浅层纹理信息和全连接层进行拼接,得到对应遥感场景图像的特征向量;基于遥感场景图像的特征向量训练分类器,得到遥感场景图像分类模型;获取测试遥感场景图像的特征向量,将测试遥感场景图像的特征向量输入至遥感场景图像分类模型,得到遥感场景图像分类结果。通过卷积激活图和全连接层进行特征表示,能够将图像浅层纹理信息和图像深层语义信息有效地结合到训练遥感场景图像的特征向量中,达到有效挖掘图像显著特征信息和几何结构信息的目的,从而提高遥感图像场景分类的正确率。
-
公开(公告)号:CN112232297A
公开(公告)日:2021-01-15
申请号:CN202011243048.7
申请日:2020-11-09
Applicant: 北京理工大学
Abstract: 本发明公开了基于深度联合卷积激活的遥感图像场景分类方法,包括:利用至少两个卷积层中的卷积激活图进行特征提取,得到图像浅层纹理信息;利用图像浅层纹理信息和全连接层进行拼接,得到对应遥感场景图像的特征向量;基于遥感场景图像的特征向量训练分类器,得到遥感场景图像分类模型;获取测试遥感场景图像的特征向量,将测试遥感场景图像的特征向量输入至遥感场景图像分类模型,得到遥感场景图像分类结果。通过卷积激活图和全连接层进行特征表示,能够将图像浅层纹理信息和图像深层语义信息有效地结合到训练遥感场景图像的特征向量中,达到有效挖掘图像显著特征信息和几何结构信息的目的,从而提高遥感图像场景分类的正确率。
-
公开(公告)号:CN115556112A
公开(公告)日:2023-01-03
申请号:CN202211336513.0
申请日:2022-10-28
Applicant: 北京理工大学
Abstract: 本发明公开了一种基于数字孪生的机器人遥操作方法及系统,通过建立数字孪生体模型,根据机器人实际工作环境构建机器人数字运行场景,同时控制机器人和机器人几何模型运动;根据关节运动学模型预测机器人的运动轨迹,并通过机器人实体实时动态和数字孪生体模型的实时特征参数对机器人进行可视化监测,以实现对机器人的遥操作,可以给遥操作者更加直观且快速的视觉反馈,数字孪生体模型与实体机器人同时接受来自操作者的控制指令,操作者可以通过观察数字孪生体模型得到该控制指令的效果。
-
-
-