-
公开(公告)号:CN118711008A
公开(公告)日:2024-09-27
申请号:CN202410707537.5
申请日:2024-06-03
Applicant: 武汉工程大学
IPC: G06V10/774 , G06V10/764 , G06V10/44 , G06V10/42
Abstract: 本发明公开了一种基于跨窗口自注意力相关网络的图像篡改检测方法,涉及图像识别技术领域,S1:准备数据集:用于模型预训练的篡改图像和真实图像均在MS COCO数据集中选取,用于微调模型的数据集为CASIAv2.0、Columbia和NIST16数据集;S2:设计基于跨窗口自注意力相关的网络结构,包括局部和全局特征提取模块和预测模块;S3:设计损失函数,在步骤S2中提到的网络结构中的局部、全局损失函数和BCE损失函数,将四个尺度上的损失函数相加取平均得到最终的损失函数;S4:将训练图像及其生成的掩码一起输入S2中的网络进行训练,生成图像篡改检测预训练和微调模型并保存;S5:输入待检测图像,利用步骤S4中训练好的图像篡改检测模型进行预测,返回图像篡改检测的结果。
-
公开(公告)号:CN110688368B
公开(公告)日:2023-06-20
申请号:CN201910929085.4
申请日:2019-09-28
Applicant: 武汉工程大学
Inventor: 陈灯 , 张哲泓 , 魏巍 , 张彦铎 , 李晓林 , 鞠剑平 , 唐剑影 , 刘玮 , 段功豪 , 卢涛 , 周华兵 , 李迅 , 于宝成 , 徐文霞 , 鲁统伟 , 闵峰 , 朱锐 , 彭丽 , 王逸文
IPC: G06F16/21 , G06F16/2458 , G06F16/28
Abstract: 本发明公开了一种构件行为模型挖掘方法与装置,该方法包括:S1)运行包含构件的软件,动态采集构件的带参行为交互序列,构成序列集合;S2)合并具有不同参数值的相同构件行为交互序列;S3)基于合并后的构件行为交互序列构建一棵树;S4)合并树中的等价节点获得有限状态机R’;S5)根据参数观察值集合归纳参数的不变式作为有限状态机R’中对应边的守护条件;S6)计算有限状态机R’中构件行为满足参数不变式的概率;S7)基于步骤S6)中迁移发生的概率得到最终的带参概率自动机表示的构件行为模型。本发明考虑了构件行为模型中参数‑构件行为之间的依赖关系并采用概率模型对模型挖掘过程中的噪声进行有效处理,可获得更精确的构件行为模型。
-
公开(公告)号:CN116188766A
公开(公告)日:2023-05-30
申请号:CN202310020070.2
申请日:2023-01-06
Applicant: 武汉工程大学
Abstract: 本发明公开了一种基于扩展层归一化与增强自注意力机制的图像描述方法,包括以下步骤:提取预设的图像区域特征;构建扩展层归一化的编码器和增强自注意力机制的解码器所形成的图像描述网络结构;设计训练方法,先通过交叉熵损失函数对图像描述网络结构进行模型训练,再通过基于强化学习的训练方法对图像描述网络结构进行模型优化,形成训练后的图像描述模型;输入待检索的图像,通过训练后的图像描述模型推理输出检测结果。本发明解决了目前图像描述方法中模型性能不够的难题。
-
公开(公告)号:CN112418165B
公开(公告)日:2023-04-07
申请号:CN202011430913.9
申请日:2020-12-07
Applicant: 武汉工程大学
Abstract: 本发明公开了一种基于改进型级联神经网络的小尺寸目标检测方法,其步骤为读入待测图像;通过预处理增强待测图像,获得增强图像;所述预处理包括尺寸填充、尺寸缩放、随机翻转、灰度值正则化;基于高分辨率表示网络根据增强图像生成由高分辨率到低分辨率若干个特征图组成的多分辨率特征图F1;基于半稠密特征金字塔对F1在各个分辨率上进行特征融合后组合得到增强后的特征图F2;使用后卷积Pi对F2中的层级i进行异化,得到异化特征图F3,i;对于每一个分辨率层级i,基于特征选择免锚框目标检测头根据F3,i生成该层级的检测结果;将检测结果汇总,通过去除重叠的算法筛选检测结果,输出最终检测结果。本发明能够提升卷积网络对小尺寸目标的表征表达性能。
-
公开(公告)号:CN114359885A
公开(公告)日:2022-04-15
申请号:CN202111620882.8
申请日:2021-12-28
Applicant: 武汉工程大学 , 武汉逸锦科技有限公司
Abstract: 本发明提供了一种高效的类手‑文混合目标检测方法,通过设计的混合目标检测模型在已经具备手指、笔等类柱体物和目标文本的图像数据集进行训练,平衡地划分训练的正负样本,使深度网络模型只对图像中同时包含类手指指尖和文本字词的区域感兴趣,降低深度网络模型在图像其他区域所生成的预测框的置信度,从而在现实阅读场景中做到模型只对手指所指向的文本进行检测,而忽略当前页的其他文本字词,避免了对图像中手指、笔等类柱体物和文字的两次目标检测与坐标变换的过程,优化了检测的实时性,简化了检测的思路。
-
公开(公告)号:CN113591928A
公开(公告)日:2021-11-02
申请号:CN202110756083.7
申请日:2021-07-05
Applicant: 武汉工程大学
Abstract: 本发明提供了基于多视角和卷积注意力模块的车辆重识别方法和系统,通过加入卷积注意力模块,使得模型能够关注车辆的有效特征,忽略无效特征,提高了模型的辨别能力;通过局部模块中的公共面计算使得模型具有更强的视角抗干扰能力,解决了不同视角下的同一车辆难以辨别问题;实现了对外观相似的车辆和不同视角下的同一车辆进行重识别的功能。本发明结合全局特征表示和局部特征表示模块,使模型能学习到更好的特征信息,增强了网络的特征表达能力,更有效地执行车辆重识别任务。
-
公开(公告)号:CN111213595A
公开(公告)日:2020-06-02
申请号:CN201811426123.6
申请日:2018-11-27
Applicant: 武汉工程大学
Abstract: 本发明设计了一种体温充电的动物电子耳标及充电方法,包括充放电管理单元M1、体温发电单元M2、电池单元M3、无线通讯单元M4、温度传感器M5和位置传感器M6;M1对M3的充电和放电进行管理;M2与M1电连接,M2通过动物的体温进行发电并对M3进行充电。本发明采用动物体温进行发电,无需更换动物电子耳标电池或者人工充电,极大的节省了大规模农场牲畜养殖的人力成本。还可以对动物体温和位置进行实时监控,可根据体温对动物疫情进行远程预警分析和快速早期诊断;根据位置信息对动物轨迹进行追踪,防范动物走失。
-
公开(公告)号:CN105389819B
公开(公告)日:2019-02-01
申请号:CN201510776198.7
申请日:2015-11-13
Applicant: 武汉工程大学
Abstract: 本发明公开了一种鲁棒的半标定下视图像极线校正方法及系统,该方法包括以下步骤:S1、获取无人飞行器每一成像时刻下视相机拍摄的图像,相机的内参数矩阵,以及无人飞行器的惯导系统提供的姿态参数,构建平行于地平面的虚拟成像环境;S2、对不同成像时刻的图像分别提取特征点,构建初始特征点对应集合;并根据该集合得到变换后的特征点对应集合;S3、构建概率表达模型,计算无人飞行器的航向与正北方向的夹角;S4、计算单应变换矩阵,并根据该矩阵,对每一成像时刻的图像进行极线校正。本发明能够快速的完成校正,并且能够得到精度较高的校正图像,对于无人机辅助导航等应用领域具有重要的指导意义。
-
公开(公告)号:CN106657547A
公开(公告)日:2017-05-10
申请号:CN201610860142.4
申请日:2016-09-28
Applicant: 武汉工程大学
CPC classification number: H04M1/663 , H04M1/6505
Abstract: 本发明公开了一种防止骚扰电话的方法及系统,其中方法包括如下步骤:在移动通讯设备端拦截所有来电并获取主叫号码;参照通讯录和黑名单,对获取的主叫号码进行识别;若主叫号码在黑名单中,自动挂断来电;若主叫号码在通讯录中,进入正常接听流程;若主叫号码既不在通讯录也不在黑名单中,为疑似骚扰电话,进入疑似骚扰电话处理流程;疑似骚扰电话处理流程包括语音身份验证和语音留言;本发明不仅可以有效地拦截骚扰电话,还可避免错过重要电话。
-
公开(公告)号:CN105631420A
公开(公告)日:2016-06-01
申请号:CN201510995238.7
申请日:2015-12-23
Applicant: 武汉工程大学
CPC classification number: G06K9/00342 , G06K9/6269
Abstract: 本发明公开了一种基于3D骨架的多视角室内人体行为识别方法,包括以下步骤:1)获取人体运动在正视角、斜视角和侧视角三个角度的视频;所述视频包括训练视频和测试视频;2)通过体感设备提取视频中人体骨架3D特征;所述三维骨架特征包括全局运动特征和手臂、腿部局部运动特征;3)训练模型;通过训练视频中的人体骨架3D特征进行特征描述,得到训练特征集;具体如下:对三维骨架特征进行在线字典学习;然后稀疏主成分分析进行降维,形成特征集数据集;4)输入测试视频的样本的特征集,通过线性支持向量机(LSVM)进行识别。本发明方法实现了多角度动作的分类识别,克服了单视角识别算法的局限性,更具有研究价值和实际应用价值。
-
-
-
-
-
-
-
-
-