一种基于关节角代偿的机器人末端多目标位姿逼近方法

    公开(公告)号:CN111409077A

    公开(公告)日:2020-07-14

    申请号:CN202010385617.5

    申请日:2020-05-09

    Abstract: 本发明公开了一种基于关节角代偿的机器人末端多目标位姿逼近方法,包括:当根据机器人几何参数的名义值确定各组关节角的目标值,并且控制机器人各关节运动到各组关节角的目标值之后,依据采集到的机器人末端位置和姿态数据测量值,对机器人几何参数误差进行辨识,将辨识出的机器人几何参数误差转换成机器人各关节角的校正值,结合转换获得的关节角的校正值计算得到用以控制机器人执行多目标位姿逼近动作的关节角的代偿值。本发明能够用关节角的代偿值代替补偿几何参数误差控制机器人运动,解决了机器人控制系统是封闭或半封闭的,用户无法将辨识得到的几何参数误差进行直接补偿的问题,有效提高机器人末端绝对位置和姿态精度和效率。

    一种基于关节角代偿的机器人末端多目标位姿逼近方法

    公开(公告)号:CN111409077B

    公开(公告)日:2021-06-15

    申请号:CN202010385617.5

    申请日:2020-05-09

    Abstract: 本发明公开了一种基于关节角代偿的机器人末端多目标位姿逼近方法,包括:当根据机器人几何参数的名义值确定各组关节角的目标值,并且控制机器人各关节运动到各组关节角的目标值之后,依据采集到的机器人末端位置和姿态数据测量值,对机器人几何参数误差进行辨识,将辨识出的机器人几何参数误差转换成机器人各关节角的校正值,结合转换获得的关节角的校正值计算得到用以控制机器人执行多目标位姿逼近动作的关节角的代偿值。本发明能够用关节角的代偿值代替补偿几何参数误差控制机器人运动,解决了机器人控制系统是封闭或半封闭的,用户无法将辨识得到的几何参数误差进行直接补偿的问题,有效提高机器人末端绝对位置和姿态精度和效率。

    一种基于深度学习的人脸口罩佩戴检测方法

    公开(公告)号:CN111931623A

    公开(公告)日:2020-11-13

    申请号:CN202010764905.1

    申请日:2020-07-31

    Abstract: 本发明公开了一种基于深度学习的人脸口罩佩戴检测方法,包括如下步骤:S1、数据准备并制作训练集;S2、构建YOLOV4目标检测模型;S3、人脸口罩佩戴检测模型进行视频流实时检测;S4、通过YOLOV4的特征提取网络,提取三个特征层,三个特征层的预测结果分别对应三个边界框的位置;通过先验框对边界框的预测与回归,就可以获得多个边界框的信息,通过非极大值抑制算法,保留置信分最高的边界框作为目标的检测框,从而确定检测框的最终位置,检测识别未佩戴口罩人员。本发明实现了对佩戴口罩和未佩戴口罩人员的检测识别,通过采用YOLOV4目标检测算法,识别的精确度和速度大大提高。

Patent Agency Ranking