基于多任务神经网络的视觉定位导航方法、系统及介质

    公开(公告)号:CN112507943B

    公开(公告)日:2023-09-29

    申请号:CN202011499627.8

    申请日:2020-12-18

    Abstract: 本发明公开了一种基于多任务神经网络的视觉定位导航方法、系统及介质,其中方法包括:设计多任务神经网络模型,所述多任务神经网络模型能同时完成目标检测与可通达语义地图构建两个任务;采用开源数据集和自建数据集对所述多任务神经网络模型进行训练及调优,获得最终的多任务神经网络模型;采用所述最终的多任务神经网络模型来实现视觉定位导航。本发明使用的多任务神经网络模型相较单任务网络可提高卷积神经网络的复用率,减小模型的体积并降低计算时延,能够更准确快速地完成AGV视觉定位导航中的目标检测与可通达地图构建分割任务,可广泛应用于计算机视觉技术领域。

    一种V-REP仿真环境下UR5机器人抓取控制方法

    公开(公告)号:CN116276971A

    公开(公告)日:2023-06-23

    申请号:CN202310075888.4

    申请日:2023-02-07

    Abstract: 本发明公开了一种V‑REP仿真环境下UR5机器人抓取控制方法,包括以下步骤:S1、采集仿真环境中机械臂末端相机模块的各类数据;S2、对图像进行压缩并传输至Android端显示,创建摇杆控件和滑块控件;S3、在Android端通过摇杆控件和滑块控件,采集操作指令,将采集到的操作指令数据进行编码并传输至PC端,PC端接收控制指令并解码为六自由度运动信息;S4、建立机械臂DH模型,根据运动指令逆解出各个关节的速度;S5、通过配置角度、角加速度的范围,对步骤S4得出的关节速度进行约束,从而得到更加真实的仿真效果;S6、将位置信息编码成仿真环境要求的格式,并发送至仿真环境中进行控制。

    一种基于检测约束的快速动态目标抓取方法

    公开(公告)号:CN113808205A

    公开(公告)日:2021-12-17

    申请号:CN202111017087.X

    申请日:2021-08-31

    Abstract: 本发明公开了一种基于检测约束的快速动态目标抓取方法,包括以下步骤:S1建立快速目标检测方法;S2、用迁移学习的方法对S1中的网络进行训练;S3、使用S2中训练好的模型,基于摄像头获取的RGB图像数据流进行目标检测,实现对真实环境中抓取物体的分类与标注;S4、设计物体边界框矫正策略,减小图像中标注的边界框与真实边界框的偏差;S5、利用深度信息算法估计目标物体抓取点的深度值;S6、将抓取位姿映射到机器人操作空间中的三维抓取位姿。本发明提出了一种基于检测约束的快速动态目标抓取方法,并且建立MobileNetV3融合YOLOV4检测方法的检测算法,可以满足抓取操作对实时性的要求。

Patent Agency Ranking