-
公开(公告)号:CN114898356A
公开(公告)日:2022-08-12
申请号:CN202210536412.1
申请日:2022-05-12
Applicant: 安徽理工大学
Abstract: 本发明属于计算机视觉领域,提供了基于球体空间特征和多模态交叉融合网络的3D目标检测算法,包括以下步骤:1)利用体素质心下采样算法从原始点云数据中心选取关键点,然后以关键点为中心搜索邻近固定半径内的点;2)利用稀疏卷积对选取的每个球体中的点进行特征提取,得到空间组,再运用卷积操作得到空间特征;3)利用三层UNet网络对RGB图像进行多尺度特征提取,得到语义组,通过MLP将其扩展到与空间特征相同的维度,得到语义特征;4)使用交叉注意力机制融合空间特征与语义特征,融合后的特征再输入到检测头进行检测,并利用混合损失函数训练此模型。大量的在多个公开的数据集上的实验数据表明了,此发明具有高效性和优越性。
-
公开(公告)号:CN114529740A
公开(公告)日:2022-05-24
申请号:CN202210029292.6
申请日:2022-01-07
Applicant: 安徽理工大学
Abstract: 本发明属于计算机视觉领域,提供了基于边缘指导和多层次特征动态聚合的显著性目标检测方法,包括以下步骤:1)利用VGG‑16主干框架对RGB图像进行初始多层次特征提取并进行编码;2)利用多层次特征动态聚合模块强化多层次特征,生成初始显著性图;3)利用边缘预测模块从主干网络中低层次的特征生成高质量边缘信息图;4)初始显著性图与边缘信息图进行高效融合增强显著性目标的边缘信息,生成高性能最终显著性图。与现有的技术相比,本发明基于边缘指导和多层次特征动态聚合的显著性目标检测方法通过集成两个模块极大提升优化多层次特征的表达能力,进一步提升显著性图的质量。
-
公开(公告)号:CN114332491A
公开(公告)日:2022-04-12
申请号:CN202111463853.5
申请日:2021-12-03
Applicant: 安徽理工大学
Abstract: 本发明属于显著性目标检测领域,提供了一种基于特征重构的显著性目标检测算法,包括以下步骤:1)首先输入原始RGB图像利用预训练好的ResNet‑50网络进行多层次特征提取;2)然后,使用残差特征重构模块,提取局部和全局上下文信息,聚合上下文信息增强特征中目标的显著性,优化多层次特征。3)随后,引入残差短连接聚合优化后的多层次特征交互多种信息生成具有丰富显著性目标信息的特征表示。4)最后,将特征表示进行降维并激活,使用多次监督策略进行模型训练。通过大量的与现存显著性目标检测方法相比较,本发明基于特征重构的显著性目标检测算法,通过利用精心设计的卷积、空洞卷积以及特征重构操作可以准确预测和分割的显著性目标。
-
公开(公告)号:CN116486112A
公开(公告)日:2023-07-25
申请号:CN202310410912.5
申请日:2023-04-18
Applicant: 安徽理工大学
IPC: G06V10/70 , G06V10/82 , G06V10/80 , G06N3/08 , G06N3/0455
Abstract: 本发明属于计算机视觉领域,提供了一种基于轻量化跨模态融合网络的RGB‑D显著性目标检测方法,包括以下步骤:1)获取训练和测试该任务的RGB‑D数据集,并定义本发明的算法目标2)构建用于提取RGB图像特征的编码器和深度图像特征的编码器;3)建立跨模态特点融合网络,通过渐进式引导的注意力机制增强RGB图像和深度图像特征特征的表达;4)基于上述的跨模态特征融合成的多模态特征,构建一个轻量化的全局上下文整合模块,以提取融合模态多尺度上下文特征;5)构建了一个简单高效的多路径聚合模块来整合融合特征,原始的RGB和深度图特征,并通过激活函数得到最终的预测到的显著图。
-
公开(公告)号:CN114758279A
公开(公告)日:2022-07-15
申请号:CN202210443675.8
申请日:2022-04-24
Applicant: 安徽理工大学
IPC: G06V20/40
Abstract: 本发明属于计算机视觉领域,提供了一种基于时间域信息传递的视频目标检测方法,包括以下步骤:1)获取并输入视频数据;2)对视频帧进行分成每m一组;3)通过信息传递模块,首先对每一组连续帧进行合并,获取特征并通过门控循环单元实现上下文信息的传递;4)利用YOLOV5对数据进行后续检测,使用Focal Loss交叉熵损失与DIoU Loss函数训练此模型。与现有的技术相比,本发明基于YOLOV5模型对其进行了改进使其更注重连续帧中相邻帧的信息,可以有效提升目标检测的质量。
-
公开(公告)号:CN114612684B
公开(公告)日:2025-01-03
申请号:CN202210279696.0
申请日:2022-03-21
Applicant: 安徽理工大学
IPC: G06V10/44 , G06V10/46 , G06V10/80 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/09
Abstract: 本发明属于计算机视觉领域,提供了一种基于高效多尺度上下文探索网络的显著性目标检测算法,包括以下步骤:1)利用预训练好的ResNet‑50网络从RGB图像中提取初始多层次特征;2)基于渐进式多尺度上下文提取模块,高效捕获多尺度多感受野上下文信息来增加初始多层次特征中的显著性信息;3)将优化的多层次特征嵌入层次化特征混合交互模块,通过高效交互不同层次特征生成高质量特征表示;4)将高质量特征表示进行一系列的降维激活生成初始显著性图。通过大量的实验数据对比,充分证明了此发明的高效性。
-
公开(公告)号:CN114332491B
公开(公告)日:2024-08-09
申请号:CN202111463853.5
申请日:2021-12-03
Applicant: 安徽理工大学
Abstract: 本发明属于显著性目标检测领域,提供了一种基于特征重构的显著性目标检测方法,包括以下步骤:1)首先输入原始RGB图像利用预训练好的ResNet‑50网络进行多层次特征提取;2)然后,使用残差特征重构模块,提取局部和全局上下文信息,聚合上下文信息增强特征中目标的显著性,优化多层次特征;3)随后,引入残差短连接聚合优化后的多层次特征交互多种信息生成具有丰富显著性目标信息的特征表示;4)最后,将特征表示进行降维并激活,使用多次监督策略进行模型训练。通过大量的与现存显著性目标检测方法相比较,本发明基于特征重构的显著性目标检测方法,通过利用精心设计的卷积、空洞卷积以及特征重构操作可以准确预测和分割的显著性目标。
-
公开(公告)号:CN115100641A
公开(公告)日:2022-09-23
申请号:CN202210477589.9
申请日:2022-04-26
Applicant: 安徽理工大学
Abstract: 本发明属于计算机视觉领域,提供了一种基于多尺度图神经网络和点云缩减网络的3D目标检测算法,包括以下步骤:1)利用PointNet++网络中的特征编码与特征编码模块对点云数据进行预处理,除去特定的无关背景以减少计算输入;2)利用关键点采样算法在点云中选取关键点,并以关键点为顶点固定半径内的空间邻点构建空间图;3)利用卷积神经网络对每个图进行特征提取,并以每个特征为顶点构建平面图,以某一结点为起点,固定搜索半径进行不同尺度的特征融合;4)使用MLP将特征转变成相同尺度,并利用混合损失函数训练此模型。大量的在多个公开的数据集上的实验数据表明了,此发明具有高效性和优越性。
-
公开(公告)号:CN114758279B
公开(公告)日:2024-11-15
申请号:CN202210443675.8
申请日:2022-04-24
Applicant: 安徽理工大学
IPC: G06V20/40
Abstract: 本发明属于计算机视觉领域,提供了一种基于时间域信息传递的视频目标检测方法,包括以下步骤:1)获取并输入视频数据;2)对视频帧进行分成每m一组;3)通过信息传递模块,首先对每一组连续帧进行合并,获取特征并通过门控循环单元实现上下文信息的传递;4)利用YOLOV5对数据进行后续检测,使用Focal Loss交叉熵损失与DIoU Loss函数训练此模型。与现有的技术相比,本发明基于YOLOV5模型对其进行了改进使其更注重连续帧中相邻帧的信息,可以有效提升目标检测的质量。
-
公开(公告)号:CN114119978B
公开(公告)日:2024-08-09
申请号:CN202111461687.5
申请日:2021-12-03
Applicant: 安徽理工大学
IPC: G06V10/26 , G06V10/46 , G06V10/764 , G06V10/82 , G06N3/045 , G06N3/0464 , G06N3/048 , G06N3/09
Abstract: 本发明属于计算机视觉领域,提供了一种集成多源特征网络的显著性目标检测算法,包括以下步骤:1)利用ResNet‑50主干网络从RGB图像提取初始多层次特征;2)利用多尺度特征聚合模块充分提取多尺度特征,聚合优化多层次特征增加特征多样性;3)利用全局特征提取器从初始特征中提取更高层次语义信息;4)利用关联特征交互模块互补性融合交互多层次特征,生成最显著特征表示;5)利用深度监督模块将最显著特征表示降维激活生成显著性图并利用真值标签以端到端的方式进行训练监督。通过与现存的最先进的显著性目标检测算法相比,本发明集成多源特征网络的显著性目标检测算法具有很大的优势。
-
-
-
-
-
-
-
-
-