-
公开(公告)号:CN118865162A
公开(公告)日:2024-10-29
申请号:CN202310463871.6
申请日:2023-04-26
Applicant: 北京理工大学
IPC: G06V20/17 , G06V20/40 , G06V10/52 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/045 , G06N3/0464 , G06N3/049 , G06N3/082
Abstract: 本发明公开了一种基于视频序列输入的无人机动态小目标检测方法,通过设置神经网络识别连续多帧图像,获得图像中运动目标的类别和位置,所述设置神经网络,包括以下步骤:设置特征提取模型,用于从图像中提取多尺度特征,所述特征提取模型以多帧连续图像作为输入;设置特征融合模型,用于将多尺度特征融合为特征图,通过特征图表征目标的外貌、运动线索;设置检测模型,根据特征图辨识获得多时刻的目标位置和类别。本发明公开的基于视频序列输入的无人机动态小目标检测方法,解决了无人机目标距离远、在图像中所占像素少、纹理、颜色和轮廓特征导致的检测精度降低的问题。
-
公开(公告)号:CN114627151A
公开(公告)日:2022-06-14
申请号:CN202111117421.9
申请日:2021-09-23
Applicant: 北京理工大学
Abstract: 本发明公开了一种无人机集群对空中目标运动状态跟踪方法,包括以下步骤:t帧时刻,多个无人机检测各自视角下的目标位置,多个无人机预测各自视角下t+1帧时刻目标的位置;t+1帧时刻,多个无人机检测各自视角下的目标位置,将检测的目标位置与各自预测的目标位置比对,实现多个无人机各自对目标运动状态的跟踪;多个无人机相互之间对各自跟踪的目标进行标识匹配,使得多个无人机对同一目标的标识相同。本发明公开的无人机集群对空中目标运动状态跟踪方法,对目标运动状态跟踪的准确度高,解决无人机集群时多视场对多目标运动状态跟踪过程中多目标身份匹配混乱的问题。
-
公开(公告)号:CN113720331A
公开(公告)日:2021-11-30
申请号:CN202011568278.0
申请日:2020-12-25
Applicant: 北京理工大学
IPC: G01C21/20
Abstract: 本发明公开了一种多相机融合的无人机建筑物内导航定位方法,所述方法包括以下步骤:步骤1,在建筑物内设置标识物,建立已知环境的标识物地图;步骤2,在飞行过程中,无人机根据观测到的标识物的信息,获得机体的位姿信息。本发明提供的多相机融合的无人机建筑物内导航定位方法,能够满足在能源限制下的任意飞行时间内的导航需求,不存在累积误差;鲁棒性强,多个相机同时观测,能够保证至少看见一个光学靶标,减少了定位失败的问题;且最小化了单次测量误差,显著提高了定位准确性。
-
公开(公告)号:CN113075937A
公开(公告)日:2021-07-06
申请号:CN202110288163.4
申请日:2021-03-17
Applicant: 北京理工大学
Abstract: 本发明公开了一种基于目标加速度估计的无人机捕获目标的控制方法,该方法中通过机载摄像机实时拍摄目标无人机的画面,从而获得带有目标无人机的连续图像信息,利用卷积神经网络,通过图像识别的方式获得每一帧图像上目标无人机的特征点位置,再根据特征点位置实时解算出无人机相对于摄像机的状态估计,在此基础上解算追踪无人机的控制指令,进而控制所述追踪无人机捕获目标。
-
公开(公告)号:CN114627151B
公开(公告)日:2024-07-26
申请号:CN202111117421.9
申请日:2021-09-23
Applicant: 北京理工大学
IPC: G06T7/246 , G06V20/10 , G06V10/44 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种无人机集群对空中目标运动状态跟踪方法,包括以下步骤:t帧时刻,多个无人机检测各自视角下的目标位置,多个无人机预测各自视角下t+1帧时刻目标的位置;t+1帧时刻,多个无人机检测各自视角下的目标位置,将检测的目标位置与各自预测的目标位置比对,实现多个无人机各自对目标运动状态的跟踪;多个无人机相互之间对各自跟踪的目标进行标识匹配,使得多个无人机对同一目标的标识相同。本发明公开的无人机集群对空中目标运动状态跟踪方法,对目标运动状态跟踪的准确度高,解决无人机集群时多视场对多目标运动状态跟踪过程中多目标身份匹配混乱的问题。
-
公开(公告)号:CN117055014A
公开(公告)日:2023-11-14
申请号:CN202310812102.2
申请日:2023-07-04
Applicant: 北京理工大学 , 青岛新松机器人自动化有限公司 , 山东黄金集团有限公司
IPC: G01S7/497
Abstract: 本发明公开了一种无目标的单轴激光雷达转台全自由度位姿自动标定方法,包括以下步骤:将采集到的激光雷达点云和电机角度进行时间对齐;采用位姿转换矩阵,将激光雷达点云数据转换至电机转子坐标系下;使用电机角度读数将电机转子坐标系下的激光雷达点云数据转换到电机的0度定子坐标系上,使用转换后的激光雷达点云数据注册全局点云,得到完整的稠密点云地图。本发明公开的无目标的单轴激光雷达转台全自由度位姿自动标定方法,能够将激光雷达点云数据精确地转换到电机的0度定子坐标系上,从而提高点云地图构建精度。
-
公开(公告)号:CN113139985A
公开(公告)日:2021-07-20
申请号:CN202110280687.9
申请日:2021-03-16
Applicant: 北京理工大学
Abstract: 本发明公开了一种消除无人机与地面站通信延迟影响的跟踪目标框选方法,该方法中,在无人机上添加存储单元,机载计算机从光电传感器获取到图像后,先给图像加入ID,然后存入存储单元,由数据链同步发送给地面站,地面站框选目标后,再由数据链把目标在像素坐标系的边框信息和图像的ID信息发送到机载计算机,机载计算机根据ID信息从存储单元中读取图像,结合边框信息确定目标,然后,跟踪算法以大于光电传感器工作频率的频率从存储单元读取图像并处理,计算出视差角给导航控制算法,直到处理的图像ID等于当前光电传感器读取图像的ID;之后,跟踪算法直接从光电传感器读取图像,进入稳定追踪阶段。
-
公开(公告)号:CN113139594A
公开(公告)日:2021-07-20
申请号:CN202110418915.4
申请日:2021-04-19
Applicant: 北京理工大学
Abstract: 本发明公开了一种机载图像无人机目标自适应检测方法,通过设置领域自适应模型对单阶段检测器进行半监督训练,获得目标检测模型,进而利用目标检测模型对无人机拍摄的图像进行检测。根据本发明提供的机载图像无人机目标自适应检测方法,显著提高检测速度,可以实现在机载低算力设备的实时运行,并且无需接触源域训练数据,实现在缺失目标域标注时的无人机目标检测,提高了迁移性和自适应能力。
-
公开(公告)号:CN112199984A
公开(公告)日:2021-01-08
申请号:CN202010664095.2
申请日:2020-07-10
Applicant: 北京理工大学
Abstract: 本发明公开了一种大尺度遥感图像的目标快速检测方法,所述方法基于深度学习,采用一种区域密集型预估与分块检测相融合的目标检测策略,对大尺度高分辨率图像进行快速精确的多目标检测分类。本发明提供的大尺度遥感图像的目标快速检测方法,能够同时实现大尺度目标和密集区域小目标的精准检测,检测效率高。
-
公开(公告)号:CN113720331B
公开(公告)日:2023-12-19
申请号:CN202011568278.0
申请日:2020-12-25
Applicant: 北京理工大学
IPC: G01C21/20
Abstract: 本发明公开了一种多相机融合的无人机建筑物内导航定位方法,所述方法包括以下步骤:步骤1,在建筑物内设置标识物,建立已知环境的标识物地图;步骤2,在飞行过程中,无人机根据观测到的标识物的信息,获得机体的位姿信息。本发明提供的多相机融合的无人机建筑物内导航定位方法,能够满足在能源限制下的任意飞行时间内的导航需求,不存在累积误差;鲁棒性强,多个相机同时观测,能够保证至少看见一个光学靶标,减少了定位失败的问题;且最小化了单次测量误差,显著提高了定位准确性。
-
-
-
-
-
-
-
-
-