-
公开(公告)号:CN119180810B
公开(公告)日:2025-02-28
申请号:CN202411412118.5
申请日:2024-10-11
Applicant: 河北工业大学
IPC: G06T7/00 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/048 , G06T7/194 , G06T3/4038 , G06V10/74 , G06T5/10 , G06V10/44 , G06V10/80
Abstract: 本发明为基于前背景联调和边缘引导的多篡改定位方法,所述定位方法包括以下内容:获取多操作图像数据集,每个图像包含至少两种篡改类型,篡改类型包括拼接、复制‑移动和删除;构建多篡改定位模型,所述多篡改定位模型包括由Res2net网络和连接在Res2net网络的每个尺度输出上的残差网络构成的骨干网络、边缘辅助的细化融合模块;利用多操作图像数据集训练多篡改定位模型,以训练后的多篡改定位模型用于图像中不同类型篡改区域的定位。解决了如何精准定位图像中的多个篡改区域的问题,实现了一张图片多个篡改类型的精确定位。
-
公开(公告)号:CN113782190B
公开(公告)日:2023-12-15
申请号:CN202111104505.9
申请日:2021-09-22
Applicant: 河北工业大学
IPC: G16H50/20 , G06V10/764 , G06V40/16 , G06V10/82 , G06N3/0464 , G06V20/40
Abstract: 本发明为基于多级时空特征和混合注意力网络的抑郁症诊断方法,该方法包括以下内容:经过预处理的公开数据集变为成组的大小固定的图片,每个图片组对应一个视频序列,并对应一个抑郁分数;构建多级时空特征和混合注意力网络:以3D‑Resnet50网络相邻两层的输出作为输入,接入多级时空特征融合模块;所述多级时空特征融合模块包括时空特征调制子模块和特征融合子模块,时空特征调制子模块用于分别对相邻两层的输出都进行空间和时间调制;特征融合子模块用于对两个调制后的特征进行特征融合;多级时空特征经调整后连接一个混合注意力模块。该方法有效克服了单一网络深度在时间感受野和空间感受野局限的问题,实现针对抑郁患者的抑郁分数评估。
-
公开(公告)号:CN117095196A
公开(公告)日:2023-11-21
申请号:CN202310723100.6
申请日:2023-06-19
IPC: G06V10/764 , G06V10/774 , G06V10/82 , G06N3/04 , G06N3/0895
Abstract: 本发明为基于特征细化自监督学习的广义零样本图像分类方法,该方法引入自监督学习任务,为SwinTransformer网络添加了两个分类头,主要用于解决对可见类别的偏见问题。通过旋转角度分类任务和对比学习任务,增强了视觉特征定位,加强了视觉特征和语义信息的相关性,同时为了进一步缓解偏见问题,在训练样本构建中为未见类生成伪标签,从而将GZSL任务设置为直推式学习。
-
公开(公告)号:CN113723345B
公开(公告)日:2023-11-14
申请号:CN202111053962.X
申请日:2021-09-09
Applicant: 河北工业大学
IPC: G06V40/20 , G06V40/10 , G06V10/762 , G06V10/82 , G06N3/045
Abstract: 本发明为一种基于风格转换和联合学习网络的域自适应行人再识别方法,包括一、利用源域数据集对神经网络模型进行预训练;二、对目标域数据集中的行人图像进行风格转换;三、对每张行人图像进行预处理;四、将同一张行人图像采用两种预处理方式得到的图像输入到两个神经网络模型中提取特征,将两个高阶特征保存至两个存储器中;两个高阶特征进行聚类,得到伪标签;将同一张行人图像的两个高阶特征进行融合,融合后的高阶特征存储在联合存储器中;五、基于伪标签训练两个神经网络模型,基于联合存储器同步训练两个神经网络模型;六、重复第四、五步并在训练过程中计算两个神经网络模型的识别精度,将识别精度最佳的神经网络模型用于行人再识别。
-
公开(公告)号:CN112329690B
公开(公告)日:2022-08-05
申请号:CN202011281122.4
申请日:2020-11-16
IPC: G06V40/20 , G06V10/774 , G06V10/764 , G06V10/77 , G06V10/82 , G06N3/04
Abstract: 本发明为基于时空残差网络和时序卷积网络的连续手语识别方法,该方法采用时空残差网络克服了完全使用三维卷积神经网络计算量大的缺点以及完全使用二维卷积神经网络短期时空特征提取不充分的缺陷;时序卷积网络增强块级特征之间的时间关联,可以在一定程度上解决RNN网络中存在的长期依赖的问题,进而在一定程度上解决CTC固有的条件独立性假设带来输出词之间的相关性缺失问题。
-
公开(公告)号:CN113298736B
公开(公告)日:2022-03-04
申请号:CN202110701430.6
申请日:2021-06-24
Applicant: 河北工业大学 , 天津云科世讯科技有限公司
Abstract: 本发明为一种基于面部样式的人脸图像修复的方法,该方法包括以下内容:构建基于面部样式的生成对抗网络,包括基于面部样式的生成网络和PatchGAN判别器网络;基于面部样式的生成网络包括编码器‑解码器构成的主干修复子网络、能够根据人脸解析图提取各面部区域的局部面部区域样式和全局面部样式的面部样式提取子网络;所有局部面部区域样式和全局面部样式构成样式矩阵,生成各面部区域的仿射参数;编码器与解码器中的相应网络层之间存在跳跃连接,每个跳跃连接上嵌入一个面部区域修复模块。该方法能够有效的克服现有技术修复后的人脸图像中存在视觉伪影、面部结构细节模糊和面部语义不一致的问题,获得更加精确的修复效果。
-
公开(公告)号:CN114005096A
公开(公告)日:2022-02-01
申请号:CN202111317650.5
申请日:2021-11-09
Applicant: 河北工业大学
Abstract: 本发明为基于特征增强的车辆重识别方法,该方法以构建具有空间注意力引导的自适应特征擦除模块和多感受野残差注意力模块的基于多注意力引导的特征增强网络,通过多感受野残差注意力在不同大小的感受野下帮助主干网络获得丰富的车辆外观特征,利用空间注意力引导的自适应特征擦除模块有选择性的擦除车辆最显著特征,使多注意力引导的特征增强网络的局部分支能够挖掘潜在局部特征,融合全局分支的全局特征和擦除分支的潜在局部特征完成车辆重识别过程。本发明方法不仅能够克服复杂的环境变化,如光照剧烈变化、障碍物遮挡而造成局部显著信息丢失的问题,而且能够满足在安全监管、智能交通系统中高效、快速的查找目标车辆的需求。
-
公开(公告)号:CN113496217A
公开(公告)日:2021-10-12
申请号:CN202110773121.X
申请日:2021-07-08
Applicant: 河北工业大学
Abstract: 本发明为视频图像序列中人脸微表情识别方法,该识别方法包括以下内容:在微表情视频图像序列预处理之后,根据微表情的实际发生机理划分图像分块并获得微表情的浅层运动信息和深层形状信息融合特征,通过光流的共现关系和AU的发生机制构建自注意力图卷积网络的邻接矩阵A,以分块为节点、以邻接矩阵为边,构建自注意力图卷积网络,最后利用自注意力图卷积网络完成微表情的分类识别。本方法克服了现有微表情识别方法对光照噪声的鲁棒性差,特征信息提取的不充分,对微表情实际发生机理研究不深入而导致的微表情识别率低的缺陷。
-
公开(公告)号:CN108447021B
公开(公告)日:2021-06-08
申请号:CN201810223832.8
申请日:2018-03-19
Applicant: 河北工业大学
Abstract: 本发明基于分块和逐帧优化的视频缩放方法,涉及一般的图像数据处理,是将视频序列按照镜头切换分割成N个视频子序列,对视频子序列分别在水平方向上和垂直方向上进行缩放与优化,步骤是:输入视频,根据镜头的切换帧进行镜头分割;对每个视频子序列中视频主体目标进行跟踪,获得相应视频子序列的视频轨迹跟踪框;整帧视频均匀分成x列向子块;合并标注,最终获得一帧视频图像帧fj_pt和一帧影子图像帧gj_pt;基于缩放比例的逐帧优化;按比例分别缩放视频图像帧fj_pt以及影子图像帧gj_pt中的保护区域和非保护区域;基于主体目标位置的逐帧优化。本发明方法克服了现有技术视频缩放中的视频抖动和目标图像与原图像严重不符的缺陷。
-
公开(公告)号:CN111783658A
公开(公告)日:2020-10-16
申请号:CN202010621885.2
申请日:2020-07-01
Applicant: 河北工业大学
Abstract: 本发明为基于双生成对抗网络的两阶段表情动画生成方法,该方法首先在第一阶段中利用表情迁移网络FaceGAN提取目标表情轮廓图中的表情特征,并将其迁移到源人脸,生成第一阶段预测图;第二阶段中利用细节生成网络FineGAN来作为补充丰富第一阶段预测图中的对表情变化贡献比较大的眼睛和嘴巴区域的细节,生成细粒度的第二阶段预测图并合成人脸视频动画,表情迁移网络FaceGAN及细节生成网络FineGAN均采用生成对抗网络实现。本申请提出两阶段生成对抗网络进行表情动画生成,第一阶段进行表情的转换,第二阶段进行图像细节的优化,通过掩模向量提取图像的指定区域,进行着重优化,同时结合局部判别器的使用,使重要部位生成效果更佳。
-
-
-
-
-
-
-
-
-