一种基于选择内核注意力的双分支遥感图像时空融合方法

    公开(公告)号:CN117745556A

    公开(公告)日:2024-03-22

    申请号:CN202311584750.3

    申请日:2023-11-24

    Inventor: 李伟生 武风艳

    Abstract: 本发明属于遥感图像处理技术领域,具体涉及一种基于选择内核注意力的双分支遥感图像时空融合方法,包括:获取不同卫星传感器采集的图像并进行预处理,将预处理后的图像输入训练好的基于选择内核注意力的双分支遥感图像时空融合网络中,得到最终融合结果;所述双分支遥感图像时空融合网络包括超分辨率网络模块、高频特征提取模块和差分重建模块;本发明在高频特征提取模块和差分重建模块中加入卷积核自适应机制来提高网络的稳健性,高频特征提取模块中包括多尺度提取和卷积内核自适应模块,能将提取的细图像中丰富的空间和光谱信息保留下来,使后续融合出准确的空间细节和光谱信息。

    一种特征增强的轻量化网络FGNet人脸表情识别方法

    公开(公告)号:CN116311414A

    公开(公告)日:2023-06-23

    申请号:CN202211559276.4

    申请日:2022-12-06

    Abstract: 本发明请求保护一种特征增强的轻量化网络FGNet人脸表情识别方法,属于模式识别技术领域。包括以下步骤:首先,针对深度卷积神经网络过于复杂的问题,设计了一个基于Keras神经网络框架的轻量级网络模型——FGNet,该模型在backbone的基础上加入了通道分片以及通道洗牌;其次,利用网络注意力模块对于通道和空间特征的提取能力,设计了轻量且高效的注意力模块来提取不同尺度的特征并输出具有丰富的多尺度信息,从而提高网络模型的性能;然后,针对人脸表情数据库样本类别不均衡问题,提出了自适应的类别权重,并加权于自定义的损失函数,来进一步的提升各类表情识别的准确率;最后,设计了一个人脸表情识别系统平台并进行了演示,实现端到端的人脸表情识别。

    一种基于极坐标变换的平面内旋转不变人脸检测方法

    公开(公告)号:CN116229532A

    公开(公告)日:2023-06-06

    申请号:CN202211573347.6

    申请日:2022-12-08

    Abstract: 本发明请求保护一种基于极坐标变换的平面内旋转不变人脸检测方法,属于图像处理技术领域,所述方法包括以下步骤:步骤1.以MobileNetV1为基础模型,为了缓解平面内旋转产生的漏检和训练困难问题,本发明设计了一个改进的特征生成网络。步骤2.为了赋予卷积网络具有旋转不变特性,本发明提出了一个极坐标变换模块,使得变换后的人脸区域具有旋转不变特性。步骤3.为了减少人脸图像在极坐标变换过程中特征信息丢失的情况,我们引入了基于迭代方式的多尺度特征融合模块,来修复极坐标变换模块输出的特征。

    一种协作渐进生成对抗网络的人脸正面图像合成方法

    公开(公告)号:CN116229531A

    公开(公告)日:2023-06-06

    申请号:CN202211558868.4

    申请日:2022-12-06

    Abstract: 本发明请求保护一种协作渐进生成对抗网络的人脸正面图像合成方法(CP‑GAN),旨在从包含姿态变化和遮挡的人脸图像中自动检测遮挡区域并实现人脸图像转正,属于计算机视觉技术领域。所述方法包括以下步骤:步骤1.本发明提出了一种拓扑感知模块,该模块有助于精确定位姿态变化下的随机遮挡。步骤2.本发明设计了一个新的双通道生成对抗网络,它可以使两个通道相互协作来感知任务间的互补特征。步骤3.本发明采用渐进式人脸生成策略,旨在使两个通道可以有效协作,同时以更平滑的方式完成人脸合成。步骤4.本发明同时引入两个判别器用于判断两个通道所合成图片的真实性,同时利用任务间的协同关系以及拓扑特征,有效提高了姿态变化和遮挡下的人脸识别精度。

    基于导向滤波和图论显著性的多模态医学图像融合方法

    公开(公告)号:CN109816617B

    公开(公告)日:2023-05-26

    申请号:CN201811487076.6

    申请日:2018-12-06

    Abstract: 本发明请求保护一种基于导向滤波和图论显著性的多模态医学图像融合方法,主要用于融合多模态医学图像,包括步骤:S1得到待融合图像的平滑子带图像和细节子带图像;S2利用图论显著性方法构造融合规则重组平滑子带系数和细节子带系数;S3重构融合后的平滑子带系数和细节子带系数得到融合后的图像。本发明基于导向滤波算法的分解方法时间复杂度较低,保证融合图像且在分解过程中能有效的减少噪声的干扰,增加方法的鲁棒性;同时利用图论的显著性方法来提取平滑子带图像的亮度、颜色和方向特征,能保留灰度图像的亮度信息和伪彩色图像的颜色信息,有效解决其他融合方法融合图像亮度信息丢失和色彩失真问题,保证融合图像的质量。

    一种基于脑启发多模态交互网络的图像美学质量评价方法

    公开(公告)号:CN116152221A

    公开(公告)日:2023-05-23

    申请号:CN202310256229.0

    申请日:2023-03-16

    Abstract: 本发明属于数字图像处理与模式识别领域,具体涉及一种基于脑启发多模态交互网络的图像美学质量评价方法,包括:建立脑启发多模态交互网络模型;将图像数据输入图像感知模块获取图像感知特征;将文本数据输入文本感知模块提取文本感知特征;通过识别模块学习图像感知特征和文本感知特征之间的交互关系,得到图像与文本之间的关联表示;评估模块融合图像感知特征、文本感知特征和图像与文本之间的关联表示,融合后进行幂归一化和L2正则化得到美学分布。本发明通过KI‑LSTM整合用户隐式记忆,提取文本和图像特征的关联表示;提出通用的SMF去融合多模态特征,利用低秩矩阵分解方式减少参数,使模型具有很好的泛化能力。

    一种基于改进YOLOv5的实时小人脸检测方法

    公开(公告)号:CN116092154A

    公开(公告)日:2023-05-09

    申请号:CN202211583824.7

    申请日:2022-12-09

    Abstract: 本发明请求保护一种基于改进YOLOv5的实时小人脸检测方法,属于计算机视觉领域。包括以下步骤:步骤1.采用YOLOv5作为小人脸检测的基础框架,该YOLOv5小人脸检测模型中加入了SKAttention,通过动态计算每个卷积核得到通道的权重,动态的将各个卷积核的结果进行融合,可以让神经网络更加关注小人脸,提升真实场景中小人脸检测的精度。步骤2.设计了小人脸特征增强模块,将特征图进行上采样处理,使得特征图继续扩大,同时将浅层特征图与深层特征图进行融合。步骤3.为了满足实时性要求,采用YOLOv5模型,并将主干特征提取网络C3替换为更轻量的ShuffleNetV2网络,以实现网络模型的轻量化,平衡速度和精度。

    一种基于YOLOv5的无人机航拍图像目标检测方法

    公开(公告)号:CN116091946A

    公开(公告)日:2023-05-09

    申请号:CN202211559260.3

    申请日:2022-12-06

    Abstract: 本发明请求保护一种基于YOLOv5的无人机航拍图像目标检测方法,属于目标检测技术领域。所述方法包括以下步骤:步骤1.以YOLOv5算法为基础模型框架,为了提升城市上空航拍图像中小目标检测的精度,本发明设计了一种多种上下文特征提取的网络。步骤2.为了提升网络对于密集区域的关注度,本发明提出了一种串联交叉自注意力算法,分别加在主干网络和三个检测头之间,进一步的增强密集区域的信息。步骤3.通过迭代训练、更新参数得到最终的网络模型,再利用多尺度预测提升小目标检测性能,最终通过三个尺度的检测头预测得到最终结果。本发明有效的缓解了上下文信息丢失问题,并增强了特征提取能力,捕获了更加多样的特征空间,实现了更加清晰的锚框定位。

    一种基于互补注意力的胰腺图像分割方法

    公开(公告)号:CN116091458A

    公开(公告)日:2023-05-09

    申请号:CN202310061177.1

    申请日:2023-01-17

    Inventor: 李伟生 赵应辉

    Abstract: 本发明属于医学图像处理技术领域,具体涉及一种基于互补注意力的胰腺图像分割方法;该方法包括:获取胰腺CT图像,对胰腺CT图像进行预处理,采用残差稠密模块对预处理好的胰腺CT图像进行特征提取,得到第一特征图;采用渐进金字塔池化模块对第一特征图进行处理,得到第二特征图;分别采用主分支解码器和边缘分支解码器对第二特征图进行处理,得到区域特征图和边缘特征图;采用互补注意力机制分别对区域特征图和边缘特征图进行处理,得到胰腺结果图和边缘结果图;本发明能够解决过分割和欠分割这些误分割问题,从而提高胰腺分割的准确率。

    基于自适应多尺度残差卷积的遥感图像融合方法及介质

    公开(公告)号:CN113129247B

    公开(公告)日:2023-04-07

    申请号:CN202110431506.8

    申请日:2021-04-21

    Inventor: 李伟生 梁雪松

    Abstract: 本发明请求保护一种基于自适应多尺度残差卷积的遥感图像融合方法及存储介质,包括步骤:S1根据Wald协议,将低分辨率的多光谱图像和高分辨率的全色图像分别进行相应倍数的下采样,构建模型需要的数据集;S2自适应匹配多光谱图像和全色图像,堆叠特征图作为输入;S3借助卷积神经网络的性质,构建一个多尺度的深层残差卷积神经网络;S4采用Adam优化算法对网络进行训练,得到训练后的深度卷积神经网络模型;S5将待融合的多光谱图像和全色图像输入到训练后的深度卷积神经网络模型中,得到融合后的高空间分辨率的多光谱图像。本发明利用深度卷积网络更充分地提取图像的空间特征,提高了多光谱遥感图像融合方法的融合效果。

Patent Agency Ranking