基于球面模型的飞行机械臂视觉伺服与多任务控制方法

    公开(公告)号:CN111923049A

    公开(公告)日:2020-11-13

    申请号:CN202010848414.5

    申请日:2020-08-21

    Applicant: 福州大学

    Abstract: 本发明提出基于球面模型的飞行机械臂视觉伺服与多任务控制方法,采用的伺服结构包括无人机、机械臂和控制模块;机械臂安装于无人机的机械臂安装面处;机械臂安装面处还设有深度相机,其拍摄角度与机械臂安装面成角度设置,控制模块使深度相机、机械臂组合为机器人手眼标定系统;所述机械臂末端设有执行器;所述控制模块为可对无人机的飞行进行控制的控制模块;当所述飞行机械臂需对目标进行操作时,控制模块经深度相机对目标距离进行评估,若目标位于机械臂操作范围外,则控制模块驱动无人机向目标飞行,若目标位于机械臂操作范围内,则控制模块驱动机械臂对目标进行操作;本发明能在无人机上挂载具备主动操纵能力的机械臂。

    一种单次拍摄的LIDAR与全景相机的外参数标定方法

    公开(公告)号:CN111260735A

    公开(公告)日:2020-06-09

    申请号:CN202010034949.9

    申请日:2020-01-13

    Applicant: 福州大学

    Abstract: 本发明涉及一种单次拍摄的LIDAR与全景相机的外参数标定方法,包括如下内容将LIDAR与全景相机固定在Robotnik移动机器人上。然后将多个棋盘放置于LIDAR与全景相机的共同视场下,一次拍摄收集单帧的全景图像与该帧全景图像对应的点云数据;接着,利用生长的棋盘角点检测算法,检测出全景图像的棋盘角点;对点云数据进行预处理,分割去除点云地面,分割点云平面、提取棋盘点云;基于点云的反射强度,估计出棋盘点云的棋盘角点;最后,通过定义从棋盘左下侧开始的角点共同计数顺序,建立全景图像的棋盘角点与点云的棋盘角点的几何约束方程,求解出外部校准参数。只需要一次拍摄,就能实现LIDAR和全景相机的外参数标定。

    基于深度学习的单目深度估计方法

    公开(公告)号:CN110738697A

    公开(公告)日:2020-01-31

    申请号:CN201910957758.7

    申请日:2019-10-10

    Applicant: 福州大学

    Abstract: 本发明提出一种基于深度学习的单目深度估计方法,包括:基于用于单目深度估计的无监督卷积神经网络结构,包括:编码器、多尺度特征融合模块、门控自适应解码器和细化单元;包括以下步骤:步骤S1:数据集预处理;步骤S2:构造卷积神经网络的损失函数,输入训练集图像,使用反向传播算法计算损失函数损失值,通过反复迭代减小误差进行参数学习,使预测值逼近真实值,以获得卷积神经网络的最佳权重模型;步骤S3:加载步骤S2已训练好的权重模型,将测试集输入用于单目深度估计的无监督卷积神经网络,获得深度预测图像。其解决了离线训练时计算量大和深度重建中细节部分恢复效果差的问题。

    一种改进型动态RRT*的移动机器人运动规划方法

    公开(公告)号:CN110703768A

    公开(公告)日:2020-01-17

    申请号:CN201911086247.9

    申请日:2019-11-08

    Applicant: 福州大学

    Abstract: 本发明涉及一种改进型动态RRT*的移动机器人运动规划方法。该方法剔除了原RRT*算法中所有的碰撞检测,通过在代价函数中增加碰撞风险评估分量的方法控制代价函数值。当采样点或边与障碍物发生碰撞时,该分量将显著增大,促使代价函数值同步显著增大,抑制了发生碰撞的点和边继续扩张的可能性,从而使算法具有避障的能力。因本发明方法没有碰撞检测,在移动机器人运动规划问题上比RRT*算法收敛的速度更快,效率更高,在越复杂的环境中优势越突出。

    无人机快速追踪协同避障方法

    公开(公告)号:CN110244756A

    公开(公告)日:2019-09-17

    申请号:CN201910356849.5

    申请日:2019-04-29

    Applicant: 福州大学

    Abstract: 本发明涉及一种无人机快速追踪协同避障方法,包括如下步骤:1、获取无人机在t时刻的位姿信息,以及具有追踪目标的二维图像信息;2、采用快速追踪算法对相机视野中追踪目标进行快速追踪;3、通过二维激光雷达获取水平面深度信息;4、根据无人机在t时刻位姿预测其在t+1时刻期望位姿,以对目标进行轨迹预测;5、根据障碍物位置计算排斥矢量偏差值,以对障碍物进行初步规避;6、定义一个智能切换信号,基于步骤5得到的结果,优化避障策略,使无人机满足最小避障要求时触发该信号,然后按步骤4和步骤5的方法,在对追踪目标进行快速追踪的同时进行高效避障。该方法可以使无人机在快速跟踪地面目标的同时躲避空中障碍物。

    基于独立虚拟中心点的机器人分散式协同避障方法

    公开(公告)号:CN109597418A

    公开(公告)日:2019-04-09

    申请号:CN201910038299.2

    申请日:2019-02-27

    Applicant: 福州大学

    CPC classification number: G05D1/0088 G05D1/027 G05D1/0272 G05D1/0289

    Abstract: 本发明涉及一种基于独立虚拟中心点的机器人分散式协同避障方法,包括如下步骤:步骤1:利用扩展卡尔曼滤波融合惯性测量单元与里程计数据,获得机器人的当前位姿信息;步骤2:通过网络通信,机器人之间共享速度和位置信息,计算出每个机器人的虚拟中心点,虚拟中心点随机器人运动而运动;步骤3:根据每个机器人的当前位置与其目标点位置、其虚拟中心点的位置,得到机器人的目标矢量和排斥矢量;步骤4:定义一个切换信号判断机器人的运动模式为避障模式或者为无障碍模式;步骤5:利用矢量微分法得到机器人的期望速度与期望角度,根据控制法则得到机器人的实时速度和角速度,指导机器人运动。避障方法采用绕虚拟中心点,垂直于排斥矢量方向旋转运动;无障碍模式即机器人始终朝着目标矢量运动,从而引导机器人进行有序地避障。

    基于低复杂度规定性能的作业型飞行机器人控制方法

    公开(公告)号:CN112527008B

    公开(公告)日:2023-05-02

    申请号:CN202011522509.4

    申请日:2020-12-21

    Applicant: 福州大学

    Abstract: 本发明提出基于低复杂度规定性能的作业型飞行机器人控制方法,包括:步骤S1:考虑由多旋翼飞行器和自由度机载主动机械臂组成的作业型飞行机器人系统,对其动力学模型进行建模分析;步骤S2:定义期望的偏航角,根据位置环虚拟控制量解耦期望的翻滚角和俯仰角;步骤S3:控制模块考虑主动机械臂与旋翼飞行器相互作用、风力因素和地面效应现象影响,以低复杂度规定性能的控制方法对作业型飞行机器人的位置/姿态和关节角度进行跟踪;步骤S4:以Lyapunov方法进行低复杂度规定性能控制方法的稳定性分析;本发明能有效实现轨迹跟踪预期的瞬态和稳态性能,并减小控制系统的复杂性。

    一种视觉与激光雷达融合的室外移动机器人位姿估计方法

    公开(公告)号:CN112396656B

    公开(公告)日:2023-04-07

    申请号:CN202011329017.3

    申请日:2020-11-24

    Applicant: 福州大学

    Abstract: 本发明涉及一种视觉与激光雷达融合的室外移动机器人位姿估计方法,包括以下步骤:步骤S1:获取点云数据及视觉图像数据;步骤S2:采用迭代拟合的算法对地面模型进行准确估计并提取地面点;步骤S3:对视觉图像下半区域提取ORB特征点,并根据地面点为视觉特征点估计深度;步骤S4:获取由点云的深度信息构成的深度图像;步骤S5:提取边缘特征、平面特征及地面特征;步骤S6:利用汉明距离及RANSAC算法对视觉特征进行匹配并采用迭代最近点法初步计算移动机器人的相对位姿;步骤S7:根据视觉得到的相对位姿、地面点云提供的点面约束、法向量约束和非地面点云提供的点线、点面约束,得到机器人的最终位姿。本发明实现移动机器人在室外环境中精度更高、鲁棒性更高的位姿估计。

    基于作业飞行机器人重心偏移的位姿控制器设计方法

    公开(公告)号:CN110427043B

    公开(公告)日:2021-09-28

    申请号:CN201910833440.8

    申请日:2019-09-04

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于作业飞行机器人重心偏移的位姿控制器设计方法,包括如下步骤:步骤S1:考虑重心偏移,对四旋翼无人机搭载机械臂系统进行建模;步骤S2:通过引入二阶滑模函数,在滑模面上求解出位置控制律,使无人机平台可以按目标轨迹飞行;步骤S3:姿态解耦时考虑重心偏移系统参数,解算出无人机平台按目标轨迹飞行所需的翻滚角、俯仰角和升力;步骤S4:在姿态控制器中考虑重心偏移控制参数,在反演控制器中加入自适应,使控制律自适应重心偏移控制参数,解算出翻滚、俯仰、偏航的输入力矩;步骤S5:通过升力、翻滚力矩、俯仰力矩、偏航力矩解算出四个旋翼的转速。该方法有利于提高无人机的控制精度。

    一种非均匀采样FMT*的移动机器人路径规划方法

    公开(公告)号:CN112286202B

    公开(公告)日:2021-07-27

    申请号:CN202011251462.2

    申请日:2020-11-11

    Applicant: 福州大学

    Abstract: 本发明提出一种非均匀采样FMT*的移动机器人路径规划方法,包括如下步骤:步骤S1、地图初始化;步骤S2、建立广义Voronoi图,即GVG;步骤S3、寻找初始化路径并实现最优路径与初始路径同伦;步骤S4、安全隧道建立;步骤S5、非均匀采样;步骤S6、构造采样集合、探索集合、已探索集合;步骤S7、搜索采样集合的节点,组成集合;步骤S8、探索中点组成集合;步骤S9、计算所有点到点的代价,实现算法的渐进最优;步骤S10、判断与是否有障碍物并针对结果进行处理;步骤S11、将所需的Z从放入;步骤S12、若Z是是目标点则返回路径解,若否则返回步骤S7继续;步骤S13、机器人对可行路径解进行处理;本发明算法收敛速度快于FMT*,能快速得到最优解,在单查询规划中具有优势。

Patent Agency Ranking