-
公开(公告)号:CN119273715A
公开(公告)日:2025-01-07
申请号:CN202411285293.2
申请日:2024-09-13
Applicant: 南昌大学
Abstract: 本发明公开了一种动态情况下IMU辅助的运动目标检测方法,首先通过提取目标图像特征点进行匹配,得到特征点对;然后对IMU传感器数据进行相对坐标转换,求解对应的基础矩阵或者单应矩阵,进而获得对应的极线或映射投影特征点;之后将提取到的特征点分类为静态背景特征点与动态目标特征点两部分;并依据相邻的两帧图像的静态背景特征点对应关系和运动参数模型求解仿射变换矩阵,利用帧间差分法对两帧图像进行差分并进行二值化图像与形态学处理,获得对应的运动目标框;最后遍历运动目标框进行重合度匹配,筛选出重合率大于设定阈值的检测对象,即为当前图像内的实际运动目标。本发明方法能够有效提高动态背景下进行运动目标识别的精度与准确率。
-
公开(公告)号:CN118424336A
公开(公告)日:2024-08-02
申请号:CN202410602581.X
申请日:2024-05-15
Applicant: 南昌大学
IPC: G01C25/00
Abstract: 本发明公开了一种双区间的序贯概率比SINS/GNSS/OD组合导航系统故障诊断方法,包括:1)预设序贯概率比检验阈值#imgabs0#和重置周期#imgabs1#;2)开辟两个区间采集残差数据并进行序贯概率比检验,设置其中一个区间作为当前检测区间;3)判断当前检测区间的序贯概率比检验的统计值是否大于预设的阈值#imgabs2#,若大于则将故障子系统隔离;4)判断当前检测区间的采样时长是否为#imgabs3#,若是则重置另一检测区间;5)判断当前检测区间的采样时长是否为#imgabs4#,若是则重置当前检测区间的采样时长,将另一区间作为当前检测区间返回步骤3;6)诊断结束。本发明方法能够减少软故障的检测时间,避免随着系统运行时间的增加导致对软故障的检测能力下降。
-
公开(公告)号:CN118548891A
公开(公告)日:2024-08-27
申请号:CN202410595602.X
申请日:2024-05-14
Applicant: 南昌大学
Abstract: 本发明公开了一种自适应鲁棒卡尔曼滤波的组合导航数据融合方法,包括:1)惯性设备IMU和卫星设备GNSS分别按照一定的频率采集原始数据;2)对采集的IMU及GNSS数据进行误差建模,确定组合系统状态量,得到系统状态量以及噪声模型;3)对建立的系统状态量以及噪声模型进行组合,搭建组合系统状态方程和量测方程;4)根据搭建的组合系统状态方程和量测方程,将二者汇入标准Kalman滤波框架中进行滤波更新。本发明相较传统算法既限制了系统建模误差对组合过程的影响,又能够削弱量测信息异常对滤波更新过程的干扰,显著提高了组合导航定位精度,非常适合于城市复杂环境下的动态定位。
-
公开(公告)号:CN118447091A
公开(公告)日:2024-08-06
申请号:CN202410602589.6
申请日:2024-05-15
Applicant: 南昌大学
Abstract: 本发明公开了一种视觉SLAM的动态特征剔除方法,包括:1)采用配准后的热像仪和RGB相机采集热图像和RGB图像;2)将采集的三通道RGB图像与热图像进行通道叠加,得到带RGBT四通道信息的图像;3)改进传统DeepLabv3+网络模型并对其进行训练;4)将改进后的DeepLabv3+网络模型用于语义分割,得到相应的静态和动态分割掩码;5)提取图像中的特征点,结合分割掩码将特征分为静态特征与动态特征;6)剔除动态特征,保留静态特征并将其用于进行后续的位姿估计与建图。本发明方法利用改进的四通道DeepLabv3+语义分割模型获取环境中所有物体的语义先验信息,准确分割场景中静态、潜在动态以及动态特征,并剔除场景中所有的动态特征点,从而提高VSLAM系统在复杂环境中的稳定性和鲁棒性。
-
公开(公告)号:CN117197562A
公开(公告)日:2023-12-08
申请号:CN202311158007.1
申请日:2023-09-08
Applicant: 南昌大学
IPC: G06V10/764 , G06V10/74 , G06V10/82 , G06N3/0464 , G06V10/26 , G06V20/40
Abstract: 本发明公开了一种基于改进YOLO的目标检测方法,包括:1)读入视频流;2)将图像输入YOLO v4网络中;3)对当前帧进行目标捕捉,获取目标种类与标定坐标;4)ViBe算法提取视频中前15帧背景建模;5)判断当前帧是否有YOLO目标框定区;6)RGB图转灰度图,对框定区进行ViBe目标检测;7)分割YOLO框定区目标构建一个YOBE数据库,进行目标分类;8)无框定区进行ViBe常规检测,进行相似度匹配,满足相似度阈值,则进行YOLO种类判定;9)重复上述步骤直至完成对所有图像帧的检测。本发明通过将YOLO与Vibe算法进行结合提出YOBE算法,相较单一的YOLO算法或Vibe算法,能够更好的完成对微小目标或低像素目标的检测,同时有效解决目标提取中的阴影与重影问题。
-
公开(公告)号:CN116719071A
公开(公告)日:2023-09-08
申请号:CN202310606033.X
申请日:2023-05-26
Applicant: 南昌大学
Abstract: 本发明涉及一种采用前向紧组合的GNSS‑INS因子图优化方法,包括:1)采集导航数据,对数据进行时间和空间同步对准;2)建立状态方程和观测方程;3)通过紧组合滤波和权值修正,得到修正的卫星数据;4)获取增量信息,进行预积分操作和误差分析,构建IMU残差方程及代价函数;5)对修正后数据进行误差分析,获取GNSS残差方程及代价函数,根据预积分过程得到的雅可比矩阵构建边缘化信息因子,得到所对应的残差方程及代价函数;6)根据所得代价函数,对GNSS‑INS因子图进行优化,得到导航最优解。本发明方法能够充分利用历史导航信息优化导航结果,在紧组合的辅助下修复拒止环境下产生的卫星断点数据,增强了组合导航系统的鲁棒性,提高了定位精度。
-
公开(公告)号:CN119648727A
公开(公告)日:2025-03-18
申请号:CN202411631937.9
申请日:2024-11-15
Applicant: 南昌大学
IPC: G06T7/13 , G06T7/00 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/0455
Abstract: 本发明涉及自动化、智能化焊接领域,尤其涉及一种焊缝坡口轮廓提取的通用方法。本发明提供了一种焊缝坡口轮廓提取的通用方法,重点是在原始SegNet网络中的编码器与解码器之间嵌入高效卷积注意力模块,用于对编码器的输出特征进行高效卷积处理后输入解码器,在解码器中嵌入注意力特征融合模块得坡口轮廓提取模型,用于对编码器中下采样前特征与解码器第一批次处理后特征进行特征融合,对所述坡口轮廓提取模型进行训练,基于训练后的坡口轮廓提取模型对待提取坡口图像进行坡口轮廓提取,目的是改善现有技术适应性不足、抗干扰能力不足的问题。
-
公开(公告)号:CN118447090A
公开(公告)日:2024-08-06
申请号:CN202410595604.9
申请日:2024-05-14
Applicant: 南昌大学
Abstract: 本发明公开了一种动态视觉SLAM方法,包括:1)读取视频流的图像数据;2)将图像输入前端中检测ORB特征点;3)通过YOLO检测常见的动态物体并提供其最小边界框;4)利用动态ViBe检测边界框内的动态物体,保留其中的静态环境;5)结合统计出动态特征的坐标信息,将动态特征的坐标与视觉里程计中的ORB特征点进行比对;检测落在半径内的ORB特征点,并消除此半径内的ORB特征点;6)择优选取不存在动态物体的关键帧,利用这些不存在动态物体的关键帧建立时间和空间跨度的全局约束,以优化各帧的相机位姿;7)判断当前帧是否为最后一帧,否则跳转到2),是则结束。本发明相较传统MonoSLAM方法,能够消除环境动态物体对MonoSLAM系统的影响,从而提升定位精度与建图效果。
-
公开(公告)号:CN117351348A
公开(公告)日:2024-01-05
申请号:CN202311271661.3
申请日:2023-09-28
Applicant: 南昌大学
IPC: G06V20/10 , G06V10/44 , G06V10/774 , G06V10/26 , G06V10/82 , G06N3/0464 , G06N3/0455
Abstract: 本发明公开了基于Unet改进特征提取和损失函数的图像道路提取方法,通过在Unet的基础上进行改进,去除对特征图的裁剪操作,并且改进了原网络中跳层连接部分的特征提取网络,使它允许每个神经元根据输入信息的多尺度自适应地调整其感受野的大小,可以更好地捕捉复杂图像空间的多尺度特征,更充分地提取这些目标局部特征;同时改进了损失函数,替换了原Unet使用的W‑CELoss(Weighted Cross‑entropy),能有效放大道路区域的损失,让网络更能关注到道路区域的损失变化,最终提升道路提取的精准度。
-
公开(公告)号:CN116758116A
公开(公告)日:2023-09-15
申请号:CN202310682496.4
申请日:2023-06-09
Applicant: 南昌大学
IPC: G06T7/246 , G06V10/46 , G06V10/82 , G06V10/22 , G06V10/762
Abstract: 本发明提出了一种基于YOLO的面向室内动态场景的VSLAM方法,包括1)采集彩色图像和深度图像,输入SLAM系统;提取特征点及深度,并将特征点ID与深度值一一对应;2)通过YOLO目标检测算法检测图像中的物体,并获取其检测框;3)对于动态物体,将检测框中的特征点进行基于深度的聚类,将动态特征点进一步分离出来;4)对于潜在的动态物体,利用多视图几何原理结合深度阈值判断其动态性,当该物体被判断为动态物体时,认为其检测框内的特征点均为动态特征点;5)将所有动态特征点剔除,其余特征点输入SLAM系统,进行后续跟踪、建图和回环检测线程。与传统的视觉SLAM算法对比,本发明方法的精度可提升至96.58%。
-
-
-
-
-
-
-
-
-