基于注意力的多尺度参数共享散焦图像去模糊方法

    公开(公告)号:CN118195951A

    公开(公告)日:2024-06-14

    申请号:CN202311671805.4

    申请日:2023-12-07

    Abstract: 本发明涉及基于注意力的多尺度参数共享散焦图像去模糊方法,属于计算机视觉和深度学习技术领。方法包括:对输入图片进行两次下采样得到三个不同尺度的散焦模糊图像;将这些图像输入不同的卷积块以得到特征向量;利用上下文注意力模块和特征选择拼接模块对这些特征进行处理和提炼;将提炼后的特征进行聚合和压缩;最后,将压缩后的特征与原始输入图像合并,得到去模糊图像。本发明通过注意力机制和多尺度处理,有效地提高了去模糊效果,同时优化了模型参数,实现了参数共享,增强了模型的泛化能力。

    一种无监督全频信道选择重建图像的缺陷检测方法

    公开(公告)号:CN117710299A

    公开(公告)日:2024-03-15

    申请号:CN202311690164.7

    申请日:2023-12-11

    Abstract: 本发明涉及一种无监督全频信道选择重建图像的缺陷检测方法,属于计算机视觉和图像处理技术领域。该方法包括以下步骤:将原始图像输入频率解耦模块FD,得到全频图像;将全频图像作为输入,送入基于SE‑UNet网络和通道选择模块CS的生成对抗网络模块中,进行特征提取与整合,得到输出特征图V;将原始输入图像和生成器网络的输出作为判别器网络模块的输入,提取出能反映图像特性的有效特征,判断重建图像与原始图像之间的误差,并计算出模型中的总体异常分数,判断原始输入图像中是否存在缺陷。本发明能够有效地从原始图像中提取全频信息,并进行动态的信道选择与特征整合,从而实现基于全频重构的准确的异常检测。

    基于CRCSAN网络的图像重建系统及方法

    公开(公告)号:CN112330542A

    公开(公告)日:2021-02-05

    申请号:CN202011292962.0

    申请日:2020-11-18

    Inventor: 唐述 杨书丽

    Abstract: 本发明涉及图像超分辨率重建技术领域,具体涉及基于交叉残差信道‑空间注意力网络的图像重建系统及方法。包括:浅层特征提取模块、深度特征提取模块)、上采样模块和重构层,浅层特征模块的输入为低分辨率图像,用于提取浅层特征;深度特征提取模块包括分频模块、交叉残差组,深度特征提取模块的输入为浅层特征模块的输出,用于提取深层特征;所述上采样模块的输入为深层特征,用于上采样;所述重构层用于重构特征,得到高分辨率图像。本发明的重建网络能够具有更强大的特征表达能力和区别学习的能力,能够重建出更高质量的高分辨率图像。

    结合帧插值和掩码的高质量视频压缩方法

    公开(公告)号:CN118101930A

    公开(公告)日:2024-05-28

    申请号:CN202410030013.7

    申请日:2024-01-09

    Abstract: 本发明涉及一种结合帧插值和掩码的高质量视频压缩方法,属于计算机视觉领域。利用Deqing Sun等人提出的光流网络PWC计算光流,通过光流扭曲由帧插值网络生成的参考帧后得到待压缩帧的预测帧,利用待压缩帧减去预测帧得到需要压缩的残差。在解码器端获得粗版重建帧后,利用基于U‑Net的掩码网络生成掩码,结合用帧插值网络生成的参考帧和粗版重建帧,得到质量更高的重建帧作为最终的重建帧,最终实现性能更高的视频压缩。与现有的技术相比,本发明提出的编解码器网络有更强大的压缩和解压能力,能够以更低的压缩成本得到更高质量的解压信息,同时引入的帧插值技术和掩码网络能进一步增强压缩性能并得到更高质量的重建帧。

    基于Transformer的局部与全局交互融合的轻量级超分辨率重建方法

    公开(公告)号:CN118052707A

    公开(公告)日:2024-05-17

    申请号:CN202410061142.2

    申请日:2024-01-16

    Abstract: 本发明涉及一种基于Transformer的局部与全局交互融合的轻量级超分辨率重建方法,属于图像超分辨率重建领域。该方法包括:将低分辨率输入浅层特征提取层进行特征提取,得到浅层特征;将浅层特征输入深层特征提取层,并经由RLGTG模块中LGTM模块提取得到深度特征,其中,LGTM模块由局部自注意力和全局自注意力交替设置组成;将深度特征输入图像重建部分,经过特征采样、特征聚合最终重建出高分辨率图像。本发明通过交替地开发图像中区域内的自注意和不同区域间的自注意力,同时实现了对图像局部信息和全局结构信息的显式捕捉。本发明能够重建出更高质量的超分辨率图像,同时具有较低的参数量和计算复杂度。

    结合点集预测和可形变卷积的目标检测方法

    公开(公告)号:CN117710649A

    公开(公告)日:2024-03-15

    申请号:CN202311690168.5

    申请日:2023-12-11

    Abstract: 本发明涉及一种结合点集预测和可形变卷积的目标检测方法,属于目标检测技术领域。该方法包括:将待测图片输入骨干网络中进行基础特征提取得到特征图F1;将特征图F1输入颈部网络进行多尺度特征提取得到多尺度特征图F2,然后执行注意力机制得到特征图F3;将特征图F3输入头部网络中进行分类和回归,得到图片分类结果。本发明将点集与可形变卷积相结合,通过本方法提取的特征,因为可形变卷积偏置的缘故,将会只对前景特征和少部分背景特征进行特征提取,从而提高了目标检测器分类和回归的精度。

    一种基于非对称U-Net网络的动态场景盲去模糊方法

    公开(公告)号:CN116188313A

    公开(公告)日:2023-05-30

    申请号:CN202310199043.6

    申请日:2023-03-03

    Inventor: 唐述 吴杨

    Abstract: 本发明属于图像处理技术领域,具体涉及一种基于非对称U‑Net网络的动态场景盲去模糊方法;该方法包括:获取模糊图像并将其输入到编码器模块中,得到第一特征图;采用模糊核逆核估计模块对第一特征图进行处理,得到第二特征图;将第二特征图输入到解码器模块中,得到三张推理清晰图像;从三张推理清晰图像中选择图像质量评价指标最高的图像作为最终的清晰图像;根据三张推理清晰图像、真实清晰图像和真实模糊图像计算总损失;根据总损失调整模型参数,得到训练好的基于非对称U‑Net网络的动态场景盲去模糊模型;本发明实现了动态场景中空间变化模糊图像的高质量盲复原,同时模型参数数量较小。

Patent Agency Ranking