基于多级时空特征和混合注意力网络的图像处理方法

    公开(公告)号:CN113782190B

    公开(公告)日:2023-12-15

    申请号:CN202111104505.9

    申请日:2021-09-22

    Abstract: 本发明为基于多级时空特征和混合注意力网络的抑郁症诊断方法,该方法包括以下内容:经过预处理的公开数据集变为成组的大小固定的图片,每个图片组对应一个视频序列,并对应一个抑郁分数;构建多级时空特征和混合注意力网络:以3D‑Resnet50网络相邻两层的输出作为输入,接入多级时空特征融合模块;所述多级时空特征融合模块包括时空特征调制子模块和特征融合子模块,时空特征调制子模块用于分别对相邻两层的输出都进行空间和时间调制;特征融合子模块用于对两个调制后的特征进行特征融合;多级时空特征经调整后连接一个混合注意力模块。该方法有效克服了单一网络深度在时间感受野和空间感受野局限的问题,实现针对抑郁患者的抑郁分数评估。

    基于风格转换和联合学习网络的域自适应行人再识别方法

    公开(公告)号:CN113723345B

    公开(公告)日:2023-11-14

    申请号:CN202111053962.X

    申请日:2021-09-09

    Abstract: 本发明为一种基于风格转换和联合学习网络的域自适应行人再识别方法,包括一、利用源域数据集对神经网络模型进行预训练;二、对目标域数据集中的行人图像进行风格转换;三、对每张行人图像进行预处理;四、将同一张行人图像采用两种预处理方式得到的图像输入到两个神经网络模型中提取特征,将两个高阶特征保存至两个存储器中;两个高阶特征进行聚类,得到伪标签;将同一张行人图像的两个高阶特征进行融合,融合后的高阶特征存储在联合存储器中;五、基于伪标签训练两个神经网络模型,基于联合存储器同步训练两个神经网络模型;六、重复第四、五步并在训练过程中计算两个神经网络模型的识别精度,将识别精度最佳的神经网络模型用于行人再识别。

    一种基于面部样式的人脸图像修复方法

    公开(公告)号:CN113298736B

    公开(公告)日:2022-03-04

    申请号:CN202110701430.6

    申请日:2021-06-24

    Abstract: 本发明为一种基于面部样式的人脸图像修复的方法,该方法包括以下内容:构建基于面部样式的生成对抗网络,包括基于面部样式的生成网络和PatchGAN判别器网络;基于面部样式的生成网络包括编码器‑解码器构成的主干修复子网络、能够根据人脸解析图提取各面部区域的局部面部区域样式和全局面部样式的面部样式提取子网络;所有局部面部区域样式和全局面部样式构成样式矩阵,生成各面部区域的仿射参数;编码器与解码器中的相应网络层之间存在跳跃连接,每个跳跃连接上嵌入一个面部区域修复模块。该方法能够有效的克服现有技术修复后的人脸图像中存在视觉伪影、面部结构细节模糊和面部语义不一致的问题,获得更加精确的修复效果。

    基于特征增强的车辆重识别方法

    公开(公告)号:CN114005096A

    公开(公告)日:2022-02-01

    申请号:CN202111317650.5

    申请日:2021-11-09

    Abstract: 本发明为基于特征增强的车辆重识别方法,该方法以构建具有空间注意力引导的自适应特征擦除模块和多感受野残差注意力模块的基于多注意力引导的特征增强网络,通过多感受野残差注意力在不同大小的感受野下帮助主干网络获得丰富的车辆外观特征,利用空间注意力引导的自适应特征擦除模块有选择性的擦除车辆最显著特征,使多注意力引导的特征增强网络的局部分支能够挖掘潜在局部特征,融合全局分支的全局特征和擦除分支的潜在局部特征完成车辆重识别过程。本发明方法不仅能够克服复杂的环境变化,如光照剧烈变化、障碍物遮挡而造成局部显著信息丢失的问题,而且能够满足在安全监管、智能交通系统中高效、快速的查找目标车辆的需求。

    视频图像序列中人脸微表情识别方法

    公开(公告)号:CN113496217A

    公开(公告)日:2021-10-12

    申请号:CN202110773121.X

    申请日:2021-07-08

    Abstract: 本发明为视频图像序列中人脸微表情识别方法,该识别方法包括以下内容:在微表情视频图像序列预处理之后,根据微表情的实际发生机理划分图像分块并获得微表情的浅层运动信息和深层形状信息融合特征,通过光流的共现关系和AU的发生机制构建自注意力图卷积网络的邻接矩阵A,以分块为节点、以邻接矩阵为边,构建自注意力图卷积网络,最后利用自注意力图卷积网络完成微表情的分类识别。本方法克服了现有微表情识别方法对光照噪声的鲁棒性差,特征信息提取的不充分,对微表情实际发生机理研究不深入而导致的微表情识别率低的缺陷。

    基于分块和逐帧优化的视频缩放方法

    公开(公告)号:CN108447021B

    公开(公告)日:2021-06-08

    申请号:CN201810223832.8

    申请日:2018-03-19

    Abstract: 本发明基于分块和逐帧优化的视频缩放方法,涉及一般的图像数据处理,是将视频序列按照镜头切换分割成N个视频子序列,对视频子序列分别在水平方向上和垂直方向上进行缩放与优化,步骤是:输入视频,根据镜头的切换帧进行镜头分割;对每个视频子序列中视频主体目标进行跟踪,获得相应视频子序列的视频轨迹跟踪框;整帧视频均匀分成x列向子块;合并标注,最终获得一帧视频图像帧fj_pt和一帧影子图像帧gj_pt;基于缩放比例的逐帧优化;按比例分别缩放视频图像帧fj_pt以及影子图像帧gj_pt中的保护区域和非保护区域;基于主体目标位置的逐帧优化。本发明方法克服了现有技术视频缩放中的视频抖动和目标图像与原图像严重不符的缺陷。

    基于双生成对抗网络的两阶段表情动画生成方法

    公开(公告)号:CN111783658A

    公开(公告)日:2020-10-16

    申请号:CN202010621885.2

    申请日:2020-07-01

    Abstract: 本发明为基于双生成对抗网络的两阶段表情动画生成方法,该方法首先在第一阶段中利用表情迁移网络FaceGAN提取目标表情轮廓图中的表情特征,并将其迁移到源人脸,生成第一阶段预测图;第二阶段中利用细节生成网络FineGAN来作为补充丰富第一阶段预测图中的对表情变化贡献比较大的眼睛和嘴巴区域的细节,生成细粒度的第二阶段预测图并合成人脸视频动画,表情迁移网络FaceGAN及细节生成网络FineGAN均采用生成对抗网络实现。本申请提出两阶段生成对抗网络进行表情动画生成,第一阶段进行表情的转换,第二阶段进行图像细节的优化,通过掩模向量提取图像的指定区域,进行着重优化,同时结合局部判别器的使用,使重要部位生成效果更佳。

Patent Agency Ranking