应用于无人机的点云融合方法、装置、设备及存储介质

    公开(公告)号:CN115223067A

    公开(公告)日:2022-10-21

    申请号:CN202211138002.8

    申请日:2022-09-19

    Abstract: 本发明涉及点云融合技术领域,具体公开了一种应用于无人机的点云融合方法、装置、设备及存储介质,其中,方法包括以下步骤:通过预训练的第一卷积模型对图像序列进行特征提取,变换获取联合语义分割图;随机去除第一点云序列中的部分点云以生成第二点云序列;获取第一点云序列特征;根据第一点云序列特征与联合语义分割图的相关性生成第一融合结果;获取第二点云序列特征;根据第二点云序列特征与联合语义分割图的相关性生成第二融合结果;根据第一融合结果及第二融合结果的差异性建立损失函数;输出损失函数收敛时的第一融合结果;该方法能进行自适应优化的点云融合,并具有人工成本低、高抗噪声、高抗干扰能力的优势。

    事件相机与标准相机的数据融合方法、装置、设备及介质

    公开(公告)号:CN114708478B

    公开(公告)日:2022-09-02

    申请号:CN202210630032.4

    申请日:2022-06-06

    Abstract: 本发明涉及机器人视觉技术领域,具体公开了一种事件相机与标准相机的数据融合方法、装置、设备及介质,其中,方法包括以下步骤:根据事件信息的分辨率将深度图像信息划分为多个点云块信息;根据点云块信息和事件信息的概率密度获取前向概率信息和后向概率信息,前向概率信息和后向概率信息分别为事件信息迁移至一点云块信息位置的前向概率和后向概率;根据前向概率信息和后向概率信息获取点云块信息与事件信息的相关性信息;根据相关性信息和全概率公式获取事件信息与点云块信息的条件概率;根据最大化的条件概率融合点云块信息与事件信息;该方法具有匹配精度高、计算量小、融合效率高的特点。

    一种空间组合机器人的无模型自适应预设控制方法

    公开(公告)号:CN114637213B

    公开(公告)日:2022-08-16

    申请号:CN202210538388.5

    申请日:2022-05-18

    Abstract: 本申请涉及自动化控制技术领域,具体而言,涉及一种空间组合机器人的无模型自适应预设控制方法,该方法包括:利用一阶欧拉离散方法将空间组合机器人的运动学方程和动力学方程转变为离散方程组;根据离散方程组获得的输入值和输出值重建线性方程;使用自适应方法估计线性矩阵参数;定义跟踪误差的收敛界,并将受收敛界约束的跟踪误差转化为无约束变量;根据无约束变量设计滑模函数;根据线性方程和估算后的线性矩阵参数设计输入受限补偿器,并根据滑模函数和输入受限补偿器设计无模型自适应控制器;将无模型自适应控制器代入空间组合机器人控制中,本方法通过将无模型自适应控制器运用在空间组合机器人控制中,使空间组合机器人的姿态稳定。

    一种视频流复原方法、系统、电子设备及存储介质

    公开(公告)号:CN114494085B

    公开(公告)日:2022-07-15

    申请号:CN202210390552.2

    申请日:2022-04-14

    Abstract: 本申请涉及计算机视觉技术领域,具体提供了一种视频流复原方法、系统、电子设备及存储介质,其包括步骤:获取相互标定的事件信息和所述带有运动模糊的视频流,所述事件信息由事件相机采集生成,带有运动模糊的视频流由视觉相机采集;根据所述视频流获取带有运动模糊的目标物体信息;根据所述事件信息和所述目标物体信息获取目标物体的运动轨迹信息;根据所述运动轨迹信息去除所述视频流中所述目标物体信息对应的所述运动模糊以生成复原视频流;该方法通过事件信息复原带有运动模糊的视频流,由于事件信息能够清晰地反映视频流中的目标物体的运动轨迹信息,因此可以根据事件信息准确区分运动区域与非运动区域,从而提高视频流运动模糊的复原效果。

    一种视频流复原方法、系统、电子设备及存储介质

    公开(公告)号:CN114494085A

    公开(公告)日:2022-05-13

    申请号:CN202210390552.2

    申请日:2022-04-14

    Abstract: 本申请涉及计算机视觉技术领域,具体提供了一种视频流复原方法、系统、电子设备及存储介质,其包括步骤:获取相互标定的事件信息和所述带有运动模糊的视频流,所述事件信息由事件相机采集生成,带有运动模糊的视频流由视觉相机采集;根据所述视频流获取带有运动模糊的目标物体信息;根据所述事件信息和所述目标物体信息获取目标物体的运动轨迹信息;根据所述运动轨迹信息去除所述视频流中所述目标物体信息对应的所述运动模糊以生成复原视频流;该方法通过事件信息复原带有运动模糊的视频流,由于事件信息能够清晰地反映视频流中的目标物体的运动轨迹信息,因此可以根据事件信息准确区分运动区域与非运动区域,从而提高视频流运动模糊的复原效果。

    基于离散扩展状态观测器的无模型自适应滑模控制方法

    公开(公告)号:CN113960923A

    公开(公告)日:2022-01-21

    申请号:CN202111107914.4

    申请日:2021-09-22

    Abstract: 本发明涉及自动化控制技术领域,具体公开了一种基于离散扩展状态观测器的无模型自适应滑模控制方法,该方法包括以下步骤:将带有外部扰动的离散非线性系统转换为仿射系统;采用自适应方法估计线性参数项,并采用离散扩展状态观测器估计未知非线性时变项;定义跟踪误差的收敛界,并将受收敛界约束的跟踪误差转化为无约束变量;根据无约束变量设计滑模函数;根据仿射系统和滑模函数设计控制器;该方法基于离散扩展状态观测器将原本带有外部扰动的离散非线性系统能转换为仿射系统,以实现系统的简化和重建,并实现带有外部扰动的离散非线性系统的闭环稳定控制。

Patent Agency Ranking