-
公开(公告)号:CN112305570B
公开(公告)日:2024-06-25
申请号:CN202011141570.4
申请日:2020-10-22
Applicant: 中国人民解放军战略支援部队信息工程大学
IPC: G01S19/23
Abstract: 本发明属于导航定位设备性能测试技术领域,具体涉及一种导航定位设备的动态性能测试系统及测试方法。该测试系统包括处理装置、轨道、运动载体、触发装置以及标准定位设备;标准定位设备为全站仪或者激光跟踪仪,用于对运动载体进行定位;运动载体用于搭载待测导航定位设备,导向移动装配在所述轨道上;处理装置用于根据标准定位设备对运动载体的定位结果以及运动载体和待测导航定位设备之间的空间位置关系,得到标准定位设备对待测导航定位设备的定位结果,并与待测导航定位设备对自身的定位结果进行比较,以根据比较结果对所述待测导航定位设备的动态定位精度性能进行测试。本发明实现对高精度的待测导航定位设备的定位精度性能的要求。
-
公开(公告)号:CN112257597B
公开(公告)日:2024-03-15
申请号:CN202011141582.7
申请日:2020-10-22
Applicant: 中国人民解放军战略支援部队信息工程大学
IPC: G06V20/64 , G06V10/26 , G06V10/764 , G06V10/82 , G06N3/0464
Abstract: 本发明涉及一种点云数据的语义分割方法,属于点云数据处理技术领域。本发明从点云数据的几何特性出发,结合深度学习底层理论构建语义分割网络模型,该语义分割网络模型将CrossLink网络结构与深度学习理论中的Densenet网络相结合,保证了不同尺度下点云信息充分融合,增加了点云语义分割场景尺度变化的鲁棒性。解决了点云实际处理工程中分割精度不佳、分割消耗时间长以及处理点云数据量有限的问题。
-
公开(公告)号:CN112232248A
公开(公告)日:2021-01-15
申请号:CN202011141551.1
申请日:2020-10-22
Applicant: 中国人民解放军战略支援部队信息工程大学
Abstract: 本发明涉及一种多线LiDAR点云数据平面特征的提取方法及装置。提取方法包括:获取多线LiDAR的原始点云数据,得到包括N条扫描线的距离图像;找出每条扫描线的断点,利用断点将各扫描线分割为若干子段;以子段为单位进行扫描线上和扫描线间的生长,得到合并子段;根据合并子段的面积、维度特征描述符、点集变化最小的方向、被投票平面的法向量确定合并子段在各个潜在平面上的投票得分,选取得分较高的若干个潜在平面作为该合并子段的候选平面;选出为候选平面投票的合并子段进行平面拟合,得到若干平面片;将若干平面片进行以点为单位的区域生长,生长停止后计算各平面片的参数,完成平面特征的提取。本发明能够准确和完整的提取出多线LiDAR点云的平面特征。
-
公开(公告)号:CN116681772A
公开(公告)日:2023-09-01
申请号:CN202310334784.0
申请日:2023-03-30
Applicant: 中国人民解放军战略支援部队信息工程大学
Abstract: 本发明涉及一种非共视下多相机在线标定方法,属于相机标定技术领域。本发明首先借助标定板获取各相机在各自标定板系下的实时位姿,然后利用视觉捕捉系统获取与相机固连的刚体实时位姿,对获取到的位姿数据进行同步对齐后,计算各相机与刚体间的位姿变换矩阵,进而计算各相机间的位姿变换矩阵。本发明无需相机间存在共视区域,无需借助复杂辅助设备,只需利用标定板和视觉捕捉系统,便可实时获取多相机的外参,实现对多相机的自动化高精度在线实时标定,解决了非共视下多相机标定效率低且标定精度不高的问题,提高了非共视条件下多相机标定的效率和精度。
-
公开(公告)号:CN112305558B
公开(公告)日:2023-08-01
申请号:CN202011141581.2
申请日:2020-10-22
Applicant: 中国人民解放军战略支援部队信息工程大学
Abstract: 本发明涉及一种利用激光点云数据的移动机器人轨迹确定方法及装置,属于定位技术领域。方法包括:获取每帧的扫描点云数据;提取点特征和平面特征;根据相邻两帧的点特征确定点特征关联,平面特征确定相邻两帧是否存在平面特征关联;若存在平面特征关联,则根据这两帧中关联的平面对的法向量确定相关矩阵;若相关矩阵的秩小于满秩,或者秩等于满秩、且条件数大于条件数设定阈值,则结合平面特征关联和点特征关联确定帧间位姿变换矩阵;若秩等于满秩、且条件数小于等于条件数设定阈值,则根据相关矩阵确定帧间位姿变换矩阵。本发明通过对平面特征的系统约束进行判断,进而选择不同的方法确定移动机器人的帧间位姿变换矩阵,提高了定位的精度。
-
公开(公告)号:CN114161425A
公开(公告)日:2022-03-11
申请号:CN202111626426.4
申请日:2021-12-28
Applicant: 中国人民解放军战略支援部队信息工程大学
IPC: B25J9/16
Abstract: 本发明涉及一种工业机器人的误差补偿方法,属于工业机器人技术领域。误差补偿方法包括:将指定运动位置输入初始机器人运动学模型,利用逆向运动求解出各关节轴的旋转角;将得到的各关节轴的旋转角输入实际机器人运动学模型,利用正向运动求解得到指定运动位置对应的第一补偿位置;将工业机器人的运动空间进行网格划分,确定第一补偿位置所处的网格,根据该网格的各顶点误差,利用空间插值方法得到该网格中第一补偿位置处的误差,进而结合第一补偿位置和该点的误差得到第二补偿位置,以第二补偿位置进行误差补偿。本发明结合了轴线测量法和空间网格法对工业机器人进行误差补偿,有效提高机器人的绝对定位精度。
-
公开(公告)号:CN112305570A
公开(公告)日:2021-02-02
申请号:CN202011141570.4
申请日:2020-10-22
Applicant: 中国人民解放军战略支援部队信息工程大学
IPC: G01S19/23
Abstract: 本发明属于导航定位设备性能测试技术领域,具体涉及一种导航定位设备的动态性能测试系统及测试方法。该测试系统包括处理装置、轨道、运动载体、触发装置以及标准定位设备;标准定位设备为全站仪或者激光跟踪仪,用于对运动载体进行定位;运动载体用于搭载待测导航定位设备,导向移动装配在所述轨道上;处理装置用于根据标准定位设备对运动载体的定位结果以及运动载体和待测导航定位设备之间的空间位置关系,得到标准定位设备对待测导航定位设备的定位结果,并与待测导航定位设备对自身的定位结果进行比较,以根据比较结果对所述待测导航定位设备的动态定位精度性能进行测试。本发明实现对高精度的待测导航定位设备的定位精度性能的要求。
-
公开(公告)号:CN116630431A
公开(公告)日:2023-08-22
申请号:CN202310352633.8
申请日:2023-04-04
Applicant: 中国人民解放军战略支援部队信息工程大学
Abstract: 本发明涉及一种大场景下光学运动捕捉系统的精度标定方法,属于光学运动捕捉系统技术领域。本发明提出的标定方法适用于大场景复杂场景下的光学运动捕捉系统的精度标定,能够解决光学运动捕捉系统各区域间相机共视区域小、相机与目标距离远、共视相机数量少等导致标定困难的问题。此外,本发明通过对各区域分开标定,确定各区域内光学捕捉系统的标定精度,再进行整个区域下光学运动捕捉系统的整体精度标定,能够准确、可靠地实现大场景下光学捕捉系统的精度标定。
-
公开(公告)号:CN112232248B
公开(公告)日:2023-04-07
申请号:CN202011141551.1
申请日:2020-10-22
Applicant: 中国人民解放军战略支援部队信息工程大学
Abstract: 本发明涉及一种多线LiDAR点云数据平面特征的提取方法及装置。提取方法包括:获取多线LiDAR的原始点云数据,得到包括N条扫描线的距离图像;找出每条扫描线的断点,利用断点将各扫描线分割为若干子段;以子段为单位进行扫描线上和扫描线间的生长,得到合并子段;根据合并子段的面积、维度特征描述符、点集变化最小的方向、被投票平面的法向量确定合并子段在各个潜在平面上的投票得分,选取得分较高的若干个潜在平面作为该合并子段的候选平面;选出为候选平面投票的合并子段进行平面拟合,得到若干平面片;将若干平面片进行以点为单位的区域生长,生长停止后计算各平面片的参数,完成平面特征的提取。本发明能够准确和完整的提取出多线LiDAR点云的平面特征。
-
公开(公告)号:CN113154989A
公开(公告)日:2021-07-23
申请号:CN202011564384.1
申请日:2020-12-25
Applicant: 中国人民解放军战略支援部队信息工程大学
IPC: G01B5/004
Abstract: 本发明涉及一种UWB系统的动态精度标定方法,属于精度标定技术领域。标定方法包括:将UWB标签固定在工业机器人的末端,测量得到UWB标签相对于工业机器人末端的距离;控制机器人按照预先规划好的轨迹运动,工业机器人记录UWB标签的运动轨迹,得到UWB标签的真实位置信息;同时通过UWB系统监测UWB标签,得到UWB标签的观测位置信息;将真实位置信息和观测位置信息进行统一;在统一坐标系下,比较真实位置信息和观测位置信息的差异;根据差异计算UWB系统的动态运动误差,完成UWB系统的动态精度标定。本发明利用工业机器人精度高、稳定性好、且能够三维运动特点,提高了UWB系统动态精度标定的准确性,并且本发明整体标定过程简单,可靠。
-
-
-
-
-
-
-
-
-