一种基于跨窗口自注意力相关网络的图像篡改检测方法

    公开(公告)号:CN118711008A

    公开(公告)日:2024-09-27

    申请号:CN202410707537.5

    申请日:2024-06-03

    Abstract: 本发明公开了一种基于跨窗口自注意力相关网络的图像篡改检测方法,涉及图像识别技术领域,S1:准备数据集:用于模型预训练的篡改图像和真实图像均在MS COCO数据集中选取,用于微调模型的数据集为CASIAv2.0、Columbia和NIST16数据集;S2:设计基于跨窗口自注意力相关的网络结构,包括局部和全局特征提取模块和预测模块;S3:设计损失函数,在步骤S2中提到的网络结构中的局部、全局损失函数和BCE损失函数,将四个尺度上的损失函数相加取平均得到最终的损失函数;S4:将训练图像及其生成的掩码一起输入S2中的网络进行训练,生成图像篡改检测预训练和微调模型并保存;S5:输入待检测图像,利用步骤S4中训练好的图像篡改检测模型进行预测,返回图像篡改检测的结果。

    基于扩展层归一化与增强自注意力机制的图像描述方法

    公开(公告)号:CN116188766A

    公开(公告)日:2023-05-30

    申请号:CN202310020070.2

    申请日:2023-01-06

    Abstract: 本发明公开了一种基于扩展层归一化与增强自注意力机制的图像描述方法,包括以下步骤:提取预设的图像区域特征;构建扩展层归一化的编码器和增强自注意力机制的解码器所形成的图像描述网络结构;设计训练方法,先通过交叉熵损失函数对图像描述网络结构进行模型训练,再通过基于强化学习的训练方法对图像描述网络结构进行模型优化,形成训练后的图像描述模型;输入待检索的图像,通过训练后的图像描述模型推理输出检测结果。本发明解决了目前图像描述方法中模型性能不够的难题。

    基于改进型级联神经网络的小尺寸目标检测方法与装置

    公开(公告)号:CN112418165B

    公开(公告)日:2023-04-07

    申请号:CN202011430913.9

    申请日:2020-12-07

    Abstract: 本发明公开了一种基于改进型级联神经网络的小尺寸目标检测方法,其步骤为读入待测图像;通过预处理增强待测图像,获得增强图像;所述预处理包括尺寸填充、尺寸缩放、随机翻转、灰度值正则化;基于高分辨率表示网络根据增强图像生成由高分辨率到低分辨率若干个特征图组成的多分辨率特征图F1;基于半稠密特征金字塔对F1在各个分辨率上进行特征融合后组合得到增强后的特征图F2;使用后卷积Pi对F2中的层级i进行异化,得到异化特征图F3,i;对于每一个分辨率层级i,基于特征选择免锚框目标检测头根据F3,i生成该层级的检测结果;将检测结果汇总,通过去除重叠的算法筛选检测结果,输出最终检测结果。本发明能够提升卷积网络对小尺寸目标的表征表达性能。

    一种高效的类手-文混合目标检测方法

    公开(公告)号:CN114359885A

    公开(公告)日:2022-04-15

    申请号:CN202111620882.8

    申请日:2021-12-28

    Abstract: 本发明提供了一种高效的类手‑文混合目标检测方法,通过设计的混合目标检测模型在已经具备手指、笔等类柱体物和目标文本的图像数据集进行训练,平衡地划分训练的正负样本,使深度网络模型只对图像中同时包含类手指指尖和文本字词的区域感兴趣,降低深度网络模型在图像其他区域所生成的预测框的置信度,从而在现实阅读场景中做到模型只对手指所指向的文本进行检测,而忽略当前页的其他文本字词,避免了对图像中手指、笔等类柱体物和文字的两次目标检测与坐标变换的过程,优化了检测的实时性,简化了检测的思路。

    基于多视角和卷积注意力模块的车辆重识别方法和系统

    公开(公告)号:CN113591928A

    公开(公告)日:2021-11-02

    申请号:CN202110756083.7

    申请日:2021-07-05

    Abstract: 本发明提供了基于多视角和卷积注意力模块的车辆重识别方法和系统,通过加入卷积注意力模块,使得模型能够关注车辆的有效特征,忽略无效特征,提高了模型的辨别能力;通过局部模块中的公共面计算使得模型具有更强的视角抗干扰能力,解决了不同视角下的同一车辆难以辨别问题;实现了对外观相似的车辆和不同视角下的同一车辆进行重识别的功能。本发明结合全局特征表示和局部特征表示模块,使模型能学习到更好的特征信息,增强了网络的特征表达能力,更有效地执行车辆重识别任务。

    一种鲁棒的半标定下视图像极线校正方法及系统

    公开(公告)号:CN105389819B

    公开(公告)日:2019-02-01

    申请号:CN201510776198.7

    申请日:2015-11-13

    Abstract: 本发明公开了一种鲁棒的半标定下视图像极线校正方法及系统,该方法包括以下步骤:S1、获取无人飞行器每一成像时刻下视相机拍摄的图像,相机的内参数矩阵,以及无人飞行器的惯导系统提供的姿态参数,构建平行于地平面的虚拟成像环境;S2、对不同成像时刻的图像分别提取特征点,构建初始特征点对应集合;并根据该集合得到变换后的特征点对应集合;S3、构建概率表达模型,计算无人飞行器的航向与正北方向的夹角;S4、计算单应变换矩阵,并根据该矩阵,对每一成像时刻的图像进行极线校正。本发明能够快速的完成校正,并且能够得到精度较高的校正图像,对于无人机辅助导航等应用领域具有重要的指导意义。

    一种基于3D骨架的多视角室内人体行为识别方法

    公开(公告)号:CN105631420A

    公开(公告)日:2016-06-01

    申请号:CN201510995238.7

    申请日:2015-12-23

    CPC classification number: G06K9/00342 G06K9/6269

    Abstract: 本发明公开了一种基于3D骨架的多视角室内人体行为识别方法,包括以下步骤:1)获取人体运动在正视角、斜视角和侧视角三个角度的视频;所述视频包括训练视频和测试视频;2)通过体感设备提取视频中人体骨架3D特征;所述三维骨架特征包括全局运动特征和手臂、腿部局部运动特征;3)训练模型;通过训练视频中的人体骨架3D特征进行特征描述,得到训练特征集;具体如下:对三维骨架特征进行在线字典学习;然后稀疏主成分分析进行降维,形成特征集数据集;4)输入测试视频的样本的特征集,通过线性支持向量机(LSVM)进行识别。本发明方法实现了多角度动作的分类识别,克服了单视角识别算法的局限性,更具有研究价值和实际应用价值。

Patent Agency Ranking