基于变惯性参数建模的飞行机械臂耦合扰动控制方法

    公开(公告)号:CN115556111A

    公开(公告)日:2023-01-03

    申请号:CN202211319418.X

    申请日:2022-10-26

    Abstract: 一种基于变惯性参数建模的飞行机械臂耦合扰动控制方法,属于空中作业无人系统控制技术领域。本发明针对现有旋翼飞行机械臂抗扰动控制中的反馈补偿存在延时,影响系统稳定性的问题。包括:建立动态变化质心在机体坐标系下的表达式和动态变化惯量在机体坐标系下的表达式;利用多刚体质点系的动量与动量矩定理对旋翼飞行机械臂系统进行动力学建模,得到系统动力学模型;基于质心变化与惯量变化对系统动力学模型进行处理,建立质心变化和惯量变化对旋翼飞行机械臂系统的耦合扰动的映射关系,得到基于变惯性参数的耦合扰动模型;将耦合扰动模型计算获得的耦合扰动估计值作为前馈补偿量输入位置环和姿态环实现耦合扰动控制。本发明可以抑制耦合扰动。

    基于深度强化学习的多智能体攻防决策方法

    公开(公告)号:CN115544898A

    公开(公告)日:2022-12-30

    申请号:CN202211398653.0

    申请日:2022-11-09

    Abstract: 基于深度强化学习的多智能体攻防决策方法,涉及人工智能、机器学习领域。本发明解决了多智能体深度确定性策略梯度方法,无法应用于智能体可坠毁的场景下的问题。本发明该攻防决策方法包括如下过程:S1、根据场景构建攻防环境;S2、将N个智能体与攻防环境进行交互,交互过程中每个智能体最大化自身奖励,构建适用于深度神经网络的数据集知识库;所述数据集知识库内所有样本的数据维度相同;S3、从数据集知识库中随机抽取一批样本,利用同批样本同时对每个智能体的深度神经网络进行训练,获得训练后的智能体;S4、在当前攻防环境和预设攻防轮次下,使训练后的各智能体进行攻防决策。主要用于复杂场景下的多对多智能体的攻防决策。

    一种基于直接自适应律的固定时间反步控制方法

    公开(公告)号:CN114637211A

    公开(公告)日:2022-06-17

    申请号:CN202210335411.0

    申请日:2022-03-31

    Abstract: 一种基于直接自适应律的固定时间反步控制方法,涉及非线性系统的控制技术领域。本发明是为了解决传统的自适应反步控制方法不仅不适用非参数话不确定性系统,而且还会导致系统收敛速度慢的问题。本发明所述的一种基于直接自适应律的固定时间反步控制方法,首先建立二维非线性系统的状态空间模型,所述二维非线性系统中具有两个状态变量、一个控制输入信号以及一个给定的目标信号,然后利用自适应律的反步控制器调整控制输入信号,最后将调整后的控制输入信号输入至二维非线性系统中,使二维非线性系统的输出信号在固定时间内能够跟踪给定目标信号,实现对二维非线性系统的反步控制。

    一种不同微量吸液管尖端的自动定位方法及装置

    公开(公告)号:CN109035340B

    公开(公告)日:2021-08-20

    申请号:CN201810940041.7

    申请日:2018-08-17

    Abstract: 本发明涉及一种自动显微注射系统中不同微量吸液管尖端的自动定位方法及装置,属于自动显微注射系统领域,本发明为了解决现有的针尖定位方法由于难以将注射针与背景相分离,从而导致无法准确地定位吸持针针尖位置的缺点,而提出一种自动显微注射系统中不同微量吸液管尖端的自动定位方法,包括:对采集到的原始图像进行预处理;将滤波后的图像与降噪图像做像素值差;确定预定个数的最大连通区域;做连通区域的外接矩形,确定外接矩形与图像边界的两个交点的平均位置作为针尖的根位置;计算外轮廓中所有点与所述根位置的距离,及与根位置所连线段与图像横轴的夹角;做距离曲线,根据曲线确定针尖尖端位置。本发明适用于生物的自动显微注射。

    一种行人交互友好型的单目避障方法

    公开(公告)号:CN111627064B

    公开(公告)日:2021-07-09

    申请号:CN202010335557.6

    申请日:2020-04-25

    Abstract: 一种行人交互友好型的单目避障方法,属于无人机导航领域,本发明为解决搭载单目摄像头的室内无人机避障性能不佳的问题。本发明方法为无人机利用单目摄像头采集图片,所述图片输入至端到端策略的并行深度神经网络结构中,该网格结构输出最佳航向角作为无人机避障的飞行指令;所述端到端策略的并行深度神经网络结构由单目摄像头结合单线激光雷达协同完成,训练过程为:步骤一、利用单线激光雷达采集的深度值搜索最佳航向,并为单目摄像头采集的图片打标签,建立数据集;步骤二、所述数据集分别输入至Resnet18网络和预训练好的YOLO v3网络中;步骤三、利用步骤一的数据集训练步骤二所述并行深度神经网络直至收敛。

    转动式并联型飞行机械臂系统及期望转角解算方法

    公开(公告)号:CN111687821B

    公开(公告)日:2021-06-22

    申请号:CN202010589808.3

    申请日:2020-06-24

    Abstract: 一种转动式并联型飞行机械臂系统及期望转角解算方法,属于机器人空中操作手领域。本发明为解决现有串联型飞行机械臂载荷能力低,精度较低并且运行速度较慢的问题。系统包括:四旋翼飞行器、并联机械臂机构、集控模块和执行机构,所述四旋翼飞行器下表面中心位置安装集控模块;并联机械臂机构的首端连接四旋翼飞行器,末端与执行机构可拆卸连接;所述并联机械臂机构具有六自由度可转动结构,可带动执行机构以期望的位姿到达任务点。本发明可实现复杂作业的空中操作。

    基于端到端深度神经网络的RRU模块物件位姿检测方法

    公开(公告)号:CN109409327B

    公开(公告)日:2021-06-08

    申请号:CN201811333891.7

    申请日:2018-11-09

    Abstract: 基于端到端深度神经网络的RRU模块物件位姿检测方法,本发明涉及RRU模块物件位置与姿态检测方法。本发明的目的是为了解决现有深度神经网络进行目标定位和姿态检测时获得的是粗略的检测结果不能满足工业要求,以及网络训练的复杂、检测速度慢的问题。一:采集的物件图像;二:进行关键点标注;三:进行图像扩增,将扩增后的图像样本分为训练集和验证集;四:进行关键点标注,将图像文件和标签文件打包;五:搭建神经网络模型;六:得到训练好的神经网络;七:采集图像;八:得到边界框中心点位置;九:筛选出物件四个角点位置;十:计算出物件相对于水平位置的旋转角度。本发明用于RRU模块物件位姿检测领域。

    一种基于深度学习的目标姿态估计方法

    公开(公告)号:CN111784731A

    公开(公告)日:2020-10-16

    申请号:CN202010567365.8

    申请日:2020-06-19

    Abstract: 一种基于深度学习的目标姿态估计方法,涉及目标物体的姿态估计领域。为了解决如何利用深度学习来解决传统目标姿态估计方法过程繁琐的问题。本发明包括如下步骤:步骤一、利用运动捕捉系统及挂载在无人机上的单目相机,采集N组数据信息,其中,N组数据信息构成标注完成的数据集;步骤二、利用标注完成的数据集对初始深度学习网络模型进行训练,获得训练后的深度学习网络模型;步骤三、再通过无人机上的单目相机,获得待估计的含有目标物体的图像信息;步骤四、将待估计的含有目标物体的图像信息发送至训练后的深度学习网络模型,从而获得目标物体相对于无人机的姿态信息的估计值。本发明具体应用在无人机导航、控制及其相关任务应用领域。

    基于传统vfh描述子加入颜色信息的点云分类方法

    公开(公告)号:CN106934372B

    公开(公告)日:2020-05-26

    申请号:CN201710148764.9

    申请日:2017-03-13

    Abstract: 基于传统vfh描述子加入颜色信息的点云分类方法,本发明涉及点云分类方法。本发明是要解决现有的基于点云vfh描述子直方图的分类方法存在着显著的问题以及对于比较接近的物体无法进行区分的问题,而提出的基于传统vfh描述子加入颜色信息的点云分类方法。该方法是通过一、将点云以保留颜色的格式存储;二、将保留颜色的格式存储的点云按照传统的vfh描述子计算方法计算快速点特征直方图FPFH得到视点相关的特征分量;三、生成颜色直方图,并将颜色直方图取代原直方图单个区间的位置;四、对于待识别的物体用Kd树进行搜索得到分类结果等步骤实现的。本发明应用于点云分类领域。

Patent Agency Ranking