引导解耦的无人机热红外图像超分辨率模型、方法

    公开(公告)号:CN119477700A

    公开(公告)日:2025-02-18

    申请号:CN202411492639.6

    申请日:2024-10-24

    Applicant: 安徽大学

    Abstract: 本发明提供一种引导解耦的无人机热红外图像超分辨率模型、方法及训练方法,属于计算机视觉和图像处理技术领域。模型集成了特定属性引导模块,对于低光照,有雾,和正常光照条件下的图像设计不同分支进行特征处理。确保在不同场景下对可见光图像实现有效特征提取。感知属性融合模块实现对三个分支的特征进行自适应聚合。多场景可见光引导模块使用多种注意力机制将实现可见光图像和热红外图像的特征交互,实现可见光图像对热红外图像的高效引导。与现有最先进的单图像超分辨率方法和引导型超分辨率方法相比,本发明恢复了更丰富的纹理和结构细节,并在评估指标和视觉感知方面有更好的表现。

    基于Mamba的光学引导的合成孔径雷达图像超分辨率重建方法及系统

    公开(公告)号:CN119850422A

    公开(公告)日:2025-04-18

    申请号:CN202510030759.2

    申请日:2025-01-08

    Applicant: 安徽大学

    Abstract: 本发明提供一种基于Mamba的光学引导的合成孔径雷达图像超分辨率重建方法及系统,包括:浅层特征提取的步骤:采用卷积法将SAR图像和光学图像编码成统一的特征空间;多模态特征融合的步骤:将提取的浅层特征作为CFSM模块和FSAM模块的输入,动态选择相关和显著的光学特征,并根据状态空间参数在空间域和频域自适应地进行多模态特征融合,从而生成高质量的融合特征;高分辨率图像重建的步骤:将浅层特征和融合特征聚合,然后对聚合后的特征进行上采样,从而重建高分辨率图像。本发明利用视觉状态空间方程长距离建模的优势,渐进式选择光学信息中有用的信息并自适应地跨模态特征集成,有效利用空间域和频域特征,减少噪声干扰的同时恢复了更真实的纹理细节信息,实现了优越的性能。

    基于CRNet的无人机视频车辆检测方法及系统

    公开(公告)号:CN117496459A

    公开(公告)日:2024-02-02

    申请号:CN202311512570.4

    申请日:2023-11-10

    Applicant: 安徽大学

    Abstract: 本发明提供基于CRNet的无人机视频车辆检测方法及系统,方法包括:采集得到差异场景视频数据,据以构建无人机视频时序序列;对差异场景视频数据,进行类别标注操作,以得到车辆类别标注数据;基于CRNet,将无人机视频时序序列作为模型输入数据,设置模型骨干网络时序增强模块,据以构建车辆检测识别模型;根据车辆检测识别模型,求取box损失、角度损失,以求取回归损失及分类损失,据以处理得到整体损失。本发明解决了难以排除运动模糊、随机遮挡以及密集分布的不利影响,以及对细粒度目标分类能力差的技术问题。

    无人机高分辨率热红外图像生成方法及系统

    公开(公告)号:CN117173023A

    公开(公告)日:2023-12-05

    申请号:CN202311205827.1

    申请日:2023-09-18

    Applicant: 安徽大学

    Abstract: 本发明提供无人机高分辨率热红外图像生成方法及系统,方法包括:对无人机捕获的热图像和可见光图像进行不同类型的浅层特征提取,得到两种模态的浅层特征;构建并利用相互指导模块MGM,将可见和热成像特征分别输入到MGM的两个不同分支中,以提取两个子任务的深层特征,通过双向注意力传递机制,使两个任务之间进行全面的特征交互,得到高质量的模态转换和超分辨率特征;构建并利用双向对齐融合模块BAFM,同时将两个分支的输出精细对齐到相同的特征空间,并进行特征融合;融合的特征通过pixelshuffle上采样得到超分辨率结果。本发明解决了由于可见图像和热红外图像信息利用不充分、不同模态之间存在差异导致无人机热红外图像质量较低的技术问题。

Patent Agency Ranking