-
公开(公告)号:CN117812533A
公开(公告)日:2024-04-02
申请号:CN202410025832.2
申请日:2024-01-08
Applicant: 武汉工程大学
IPC: H04W4/02 , H04W4/33 , G06N3/0464
Abstract: 本发明属于室内定位技术领域,公开了一种基于卷积神经网络Wi‑Fi室内定位方法及系统,包括:分别针对大规模场景和小规模场景离线采集数据并构建指纹数据集;指纹数据集输入定位网络中训练,得到模型的权重文件;将在线阶段采集到的未知点的原始指纹数据,根据场景的需求转化成相应的指纹图;通过离线阶段的模型权重得到待定位点的定位信息。本发明构建适用大规模场景的灰度指纹图和小规模场景的热力指纹图,贴合场景数据训练要求;采用3D射线追踪技术模拟构建真实场景数据,解决了前端数据采集耗费大量人力物力及财力的问题和克服数据不平均问题;通过定位网络预测用户位置,将实时采集的数据与指纹库进行匹配得出定位结果。
-
公开(公告)号:CN110865650B
公开(公告)日:2022-12-20
申请号:CN201911133525.1
申请日:2019-11-19
Applicant: 武汉工程大学
Abstract: 本发明公开了一种基于主动视觉的无人机位姿自适应估计方法,至少包括:主动视觉检测,通过无人机机载视觉系统对降落合作目标进行连续观测,并对所有检测到的降落合作目标进行筛选,保留当前视野范围内检测精度较高的降落合作目标信息;无人机位姿计算,以视觉2D特征、惯性测量信息为输入,实时计算当前无人机相对合作目标的位姿;自适应位姿融合,根据相应的协方差信息对所有计算的无人机相对降落合作目标的位姿解进行基于联邦滤波的自适应融合,得到最优化的无人机位姿。本发明可以有效提高面向自主降落任务无人机视觉的有效测量精度和范围,也适用于机器人视觉感知与定位研究。
-
公开(公告)号:CN110865650A
公开(公告)日:2020-03-06
申请号:CN201911133525.1
申请日:2019-11-19
Applicant: 武汉工程大学
Abstract: 本发明公开了一种基于主动视觉的无人机位姿自适应估计方法,至少包括:主动视觉检测,通过无人机机载视觉系统对降落合作目标进行连续观测,并对所有检测到的降落合作目标进行筛选,保留当前视野范围内检测精度较高的降落合作目标信息;无人机位姿计算,以视觉2D特征、惯性测量信息为输入,实时计算当前无人机相对合作目标的位姿;自适应位姿融合,根据相应的协方差信息对所有计算的无人机相对降落合作目标的位姿解进行基于联邦滤波的自适应融合,得到最优化的无人机位姿。本发明可以有效提高面向自主降落任务无人机视觉的有效测量精度和范围,也适用于机器人视觉感知与定位研究。
-
公开(公告)号:CN119540100A
公开(公告)日:2025-02-28
申请号:CN202510093625.5
申请日:2025-01-21
Applicant: 武汉工程大学
Abstract: 本发明提供了一种基于动态分解及融合的图像复原方法及系统,通过按退化模式分解具有混杂特征的待恢复图像,提取数量与退化模式的类型数相同的退化特征;分别处理每个退化特征,得到与每个退化模式相应的恢复特征;动态融合恢复特征,得到与待恢复图像相同尺寸的清晰的恢复图像,实现了对复杂混杂图像进行高质量恢复的功能。本发明在多个尺度下对恢复特征图进行分解、处理和融合,得到融合多个尺度恢复特征的恢复特征图,提高了混杂图像恢复的视觉效果。本发明基于方法形成的相应模型构建对称的U型网络,并构建与退化模式对应的处理子模块,很好地应对了真实环境下复杂多样的退化图像,为图像复原领域提供了一种高效、可靠的解决方案。
-
公开(公告)号:CN119251244A
公开(公告)日:2025-01-03
申请号:CN202411503628.3
申请日:2024-10-25
Applicant: 武汉工程大学
IPC: G06T7/11 , G06T7/00 , G06N3/045 , G06V10/42 , G06V10/44 , G06V10/46 , G06N3/0464 , G06V10/80 , G06N3/048 , G06N3/09
Abstract: 本发明提供一种息肉分割方法及装置,该方法包括:使用金字塔视觉Transformer模型PVT提取息肉图像的全局特征,使用卷积神经网络U‑Net提取所述息肉图像的局部特征,使用融合模块将所述全局特征和局部特征进行融合;使用多尺度增强模块通过空间注意力机制对所述融合模块的融合结果进行处理以逐层强调空间信息,并利用解码模块对处理结果进行解码;使用边界增强模块通过空洞卷积和注意力机制对所述融合模块的融合结果进行处理以强调边界信息,并将所述边界增强模块的处理结果与所述解码模块的解码结果进行融合后再次解码,得到所述息肉图像的分割结果。本发明提高息肉分割的准确性和效率。
-
公开(公告)号:CN119540100B
公开(公告)日:2025-04-22
申请号:CN202510093625.5
申请日:2025-01-21
Applicant: 武汉工程大学
Abstract: 本发明提供了一种基于动态分解及融合的图像复原方法及系统,通过按退化模式分解具有混杂特征的待恢复图像,提取数量与退化模式的类型数相同的退化特征;分别处理每个退化特征,得到与每个退化模式相应的恢复特征;动态融合恢复特征,得到与待恢复图像相同尺寸的清晰的恢复图像,实现了对复杂混杂图像进行高质量恢复的功能。本发明在多个尺度下对恢复特征图进行分解、处理和融合,得到融合多个尺度恢复特征的恢复特征图,提高了混杂图像恢复的视觉效果。本发明基于方法形成的相应模型构建对称的U型网络,并构建与退化模式对应的处理子模块,很好地应对了真实环境下复杂多样的退化图像,为图像复原领域提供了一种高效、可靠的解决方案。
-
公开(公告)号:CN119364517A
公开(公告)日:2025-01-24
申请号:CN202411503626.4
申请日:2024-10-25
Applicant: 武汉工程大学
IPC: H04W64/00 , H04W4/33 , G01S5/02 , G06V10/764 , G06V10/80 , G06V10/774
Abstract: 本发明提供一种基于Wi‑Fi和视觉融合的室内定位方法及装置,该方法包括:根据行人的目标终端对多个WiFi设备的接收信号强度,利用随机森林算法预测所述行人的第一位置,所述随机森林算法对所述目标终端的定位区域进行约束;利用YOLOv7识别视频中的所述行人,并利用Deep SORT算法对所述视频中的行人进行跟踪,得到所述行人的第二位置;利用自适应卡尔曼滤波器对所述行人的第一位置和第二位置进行融合,得到所述行人的最终位置。本发明通过自适应卡尔曼滤波器技术(结合WiFi和视觉定位结果,动态调整滤波器参数和权重,显著降低了各独立技术的不确定性,提升了系统的整体鲁棒性和精确度。
-
公开(公告)号:CN117576530A
公开(公告)日:2024-02-20
申请号:CN202311456363.1
申请日:2023-11-01
Applicant: 武汉工程大学 , 武汉欣海远航科技研发有限公司
IPC: G06V10/80 , G06V10/82 , G06V10/766 , G06V10/40 , G06V10/52 , G06N3/0442 , G06N3/08
Abstract: 本发明公开了一种基于运动与外观特征自适应融合的多目标关联与跟踪方法,包括以下步骤:S1、通过时空特征聚合网络提取连续图像序列中目标外观特征向量和运动特征向量,并聚合生成多序列帧时空尺度特征图;S2、对当前图像帧中的目标进行关键点检测,根据目标在连续帧之间的关键点数量变化,识别目标被遮挡状态;S3、根据目标被遮挡状态确定运动特征向量和外观特征向量对目标特征表示的贡献度,自适应调整两者的权重,并进行特征融合,生成准确的特征描述向量;S4、根据各个目标生成的准确的特征描述向量进行多帧图像序列间的数据关联,实现多目标跟踪。本发明可解决目标受短时遮挡或者消失情形下呈现的特征不稳定问题。
-
公开(公告)号:CN119888261A
公开(公告)日:2025-04-25
申请号:CN202411902866.1
申请日:2024-12-23
Applicant: 武汉工程大学
IPC: G06V10/46 , G06V10/80 , G06V10/764 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/048 , G06N3/084 , G06N3/0895
Abstract: 本发明提供一种基于多源弱监督的图像显著性检测方法及系统,涉及图像处理技术领域;方法包括:基于文本标签和点标签对RGB图像进行标注生成伪标签,利用构建的显著性目标检测模型中的不同编码器分别对RGB图像和深度图像进行特征提取,并对提取到的特征按层级进行融合处理,得到多个不同的层级图像特征,根据多个层级图像特征生成边缘特征,结合边缘特征对多个层级图像特征进行解码处理,得到显著性目标图像。通过结合多种弱标签的优势,充分发挥深度信息对RGB信息的补充作用,使显著性目标检测模型检测出的显著性目标突出细丝状边缘结构。
-
公开(公告)号:CN119478354A
公开(公告)日:2025-02-18
申请号:CN202411519317.6
申请日:2024-10-29
Applicant: 武汉工程大学
Abstract: 本发明提供一种基于自适应多尺度特征融合的表面缺陷显著目标检测方法,该方法包括:使用VGG16网络从待检测物体表面图像中提取多种层次的特征图;使用CBAM注意力机制通过空间和通道注意力对每种层次的特征图进行加权;使用自适应多尺度特征融合策略将加权后的所述特征图按照从深到浅的层次顺序逐步融合;根据所述特征图的融合结果,预测所述待检测物体表面图像中的缺陷区域;其中,所述自适应多尺度特征融合策略包括自适应权重融合机制、全局特征自适应融合机制和差异特征自适应融合机制。本发明提高物体表面缺陷检测的精度,具有较强的鲁棒性和泛化能力。
-
-
-
-
-
-
-
-
-