-
公开(公告)号:CN112395964A
公开(公告)日:2021-02-23
申请号:CN202011229245.3
申请日:2020-11-06
Applicant: 南通大学
Abstract: 本发明提供了一种基于深度学习的能见度估计方法,包括以下步骤:步骤一:选用3D ResNet18卷积神经网络;步骤二:选用多层感知器进行融合;步骤三:将上述3D ResNet18卷积神经网络和多层感知器(MLP)模型进行融合和步骤四:在测试集上进行了模型的精度评估。本发明的有益效果为:本发明主要是将3D ResNet18卷积神经网络与多层感知器(MLP)结合起来进行基于深度学习的能见度估计,对视频数据进行特征向量提取,对提取的特征向量进行分类,实现分类估计,相比于传统方法中只选取少量视频、截取图像中的某些固有特征的局限性,它充分利用视频的连续信息,并添加多层感知器进行分类估计,提高了估计精度。
-
公开(公告)号:CN114861761B
公开(公告)日:2024-09-20
申请号:CN202210357834.2
申请日:2022-04-06
Applicant: 南通大学
IPC: G06V10/82 , G06N3/0464 , G06N3/045 , G06V10/42 , G06V10/44 , G06V10/74 , G06V10/764
Abstract: 本发明公开了一种基于孪生网络特征与几何验证的回环检测方法,属于计算机视觉图像技术领域,解决了传统方法在光照和视点变化下准确率较低的技术问题。其技术方案为:包括以下步骤:步骤1、获取输入的RGB‑D图像;步骤2、获取多维特征信息;步骤3、提取图像全局特征;步骤4、计算图像间的相似度得分,根据相似度得分得到回环候图像;步骤5、采用几何一致性检验对两幅图像的描述符进行匹配;步骤6、采用随机采样一致性算法消除误匹配;步骤7、采用时间一致性检验进一步进行误匹配的剔除。本发明的有益效果为:本发明的孪生网络特征具有光照不变性,几何验证又能获得图像间的几何拓扑信息,提高了回环检测的精确率和召回率。
-
公开(公告)号:CN114494736B
公开(公告)日:2024-09-20
申请号:CN202210104480.0
申请日:2022-01-28
Applicant: 南通大学
IPC: G06V10/46 , G06V10/25 , G06V10/762 , G06V10/74 , G06V10/82 , G06F40/216 , G06N3/0464
Abstract: 本发明提供了一种基于显著性区域检测的室外地点重识别方法,属于计算机视觉、深度学习技术领域。其技术方案为:包括以下步骤:步骤一、SE‑ResNet特征图的提取;步骤二、显著性区域的检测;步骤三、训练视觉词袋模型;步骤四、图像之间的相似度匹配。本发明的有益效果为:本发明通过深度学习特征构建的视觉词袋模型,把显著性区域的局部特征融合成全局特征,提高匹配的准确度。
-
公开(公告)号:CN114743101A
公开(公告)日:2022-07-12
申请号:CN202210357394.0
申请日:2022-04-06
Applicant: 南通大学
Abstract: 本发明提供了一种基于图像注意力加权池化的室外地点重识别方法,属于计算机视觉深度学习技术领域。解决了室外场景下地点重识别任务容易受到动态物体干扰的问题。其技术方案为:包括以下步骤:步骤一、从卷积神经网络提取特征图;步骤二、显著性区域的检测;步骤三、生成图像注意力;步骤四、损失函数计算损失。本发明的有益效果为:本发明检测图片最显著的部分同时抑制动态物体的干扰;在室外场景下能提取鲁棒性更强的图像全局特征,减少误匹配。
-
公开(公告)号:CN112231641A
公开(公告)日:2021-01-15
申请号:CN202011111249.1
申请日:2020-10-16
Applicant: 南通大学
Abstract: 本发明提供了一种基于气象数据的能见度估计方法,包括以下步骤:步骤一、根据数据集的散点分布建立一元非线性函数模型;步骤二、通过拟合得到相对湿度、温度、气压、风速与能见度之间的函数系数的最优解,建立具体函数关系式;步骤三、选用层次分析法求解相对湿度、温度、气压、风速对能见度影响的权重系数;步骤四、建立地面气象观测各因素与能见度之间的多因素AHP加权模型。本发明的有益效果为:本发明通过建立能见度与气象各因素之间的关系,使用非线性回归和层次分析法相结合的AHP加权模型,既考虑到各单个因素对于能见度的影响,又将其综合考虑,进行加权,对总体关系的建立更精确更全面。
-
公开(公告)号:CN114861761A
公开(公告)日:2022-08-05
申请号:CN202210357834.2
申请日:2022-04-06
Applicant: 南通大学
Abstract: 本发明公开了一种基于孪生网络特征与几何验证的回环检测方法,属于计算机视觉图像技术领域,解决了传统方法在光照和视点变化下准确率较低的技术问题。其技术方案为:包括以下步骤:步骤1、获取输入的RGB‑D图像;步骤2、获取多维特征信息;步骤3、提取图像全局特征;步骤4、计算图像间的相似度得分,根据相似度得分得到回环候图像;步骤5、采用几何一致性检验对两幅图像的描述符进行匹配;步骤6、采用随机采样一致性算法消除误匹配;步骤7、采用时间一致性检验进一步进行误匹配的剔除。本发明的有益效果为:本发明的孪生网络特征具有光照不变性,几何验证又能获得图像间的几何拓扑信息,提高了回环检测的精确率和召回率。
-
公开(公告)号:CN113988269A
公开(公告)日:2022-01-28
申请号:CN202111306476.4
申请日:2021-11-05
Applicant: 南通大学
Abstract: 本发明公开了一种基于改进孪生网络的回环检测及优化方法,属于计算机视觉图像技术领域;解决了传统的BOW模型基于手工特征,构建字典,描述图像,判断相似,该方法具有局限性且计算量较大,实时性较差的技术问题。其技术方案为:包括以下步骤:步骤一、SEREsiamese网络架构候选机制:步骤二、3D‑Siamese网络架构校验机制:步骤三、损失函数。本发明的有益效果是:本发明是将2D及3D卷积神经网络与孪生网络进行融合,通过与fabmab方法以及其他网络的对比,本发明的方法均展示了较高的精确度及召回率,同时,由于将特征提取和相似度测量统一化,本发明节约了较fabmab近一半的时间得到回环帧,在提升回环精度的同时提高了实时性。
-
公开(公告)号:CN114494736A
公开(公告)日:2022-05-13
申请号:CN202210104480.0
申请日:2022-01-28
Applicant: 南通大学
IPC: G06V10/46 , G06V10/25 , G06V10/762 , G06V10/74 , G06V10/82 , G06K9/62 , G06F40/216 , G06N3/04 , G06N3/08
Abstract: 本发明提供了一种基于显著性区域检测的室外地点重识别方法,属于计算机视觉、深度学习技术领域。其技术方案为:包括以下步骤:步骤一、SE‑ResNet特征图的提取;步骤二、显著性区域的检测;步骤三、训练视觉词袋模型;步骤四、图像之间的相似度匹配。本发明的有益效果为:本发明通过深度学习特征构建的视觉词袋模型,把显著性区域的局部特征融合成全局特征,提高匹配的准确度。
-
公开(公告)号:CN114067128A
公开(公告)日:2022-02-18
申请号:CN202111570170.X
申请日:2021-12-21
Applicant: 南通大学
Abstract: 本发明公开了一种基于语义特征的SLAM回环检测方法,属于计算机视觉图像技术领域,包括以下步骤:通过RGB‑D相机获取新的图像,并通过YOLOv4目标检测网络模型提取当前图像与图像数据库中其他待匹配图像的语义信息,计算当前图像与图像序列中其他图像的语义特征向量之间的余弦相似度,根据相似度从历史图像中挑选出最接近的K个候选帧,对当前图像和K个候选帧进行几何一致性检验,将满足几何一致性的当前图像作为真正的回环。本发明的有益效果为:采用语义特征可以大大减少光照和视点变化的影响,提高回环检测的准确性以及召回率,同时使用的几何一致性检验又减少了大部分误匹配,且计算量小,需要较低的存储消耗和计算成本,提高了实时性。
-
-
-
-
-
-
-
-