-
公开(公告)号:CN114219742B
公开(公告)日:2025-02-18
申请号:CN202111055117.6
申请日:2021-09-09
Applicant: 武汉工程大学 , 武汉逸锦科技有限公司
IPC: G06T3/4038 , G06T3/4046 , G06T5/50 , G06T5/60 , G06T5/40 , G06V40/16 , G06V10/82 , G06N3/0464 , G06N3/0475 , G06N3/045 , G06N3/094
Abstract: 本发明提供了一种联合流形约束和FB‑GAN的人脸变形方法和系统,通过使用生成对抗神经网络设计出端到端的人脸图像拼接对抗网络FB‑GAN,实现了在人脸变形过程中生成高分辨率的人脸图像的功能。本发明通过人脸变形算法生成高分辨率的人脸图像,解决了传统变形中人脸嘴巴从闭合到张开所导致的嘴巴“扭曲”或“空洞”问题。本发明解决了人脸拼接问题中的颜色差异较大而导致的拼接效果较差的问题,提高了人脸生成图像的真实性。
-
公开(公告)号:CN114513681A
公开(公告)日:2022-05-17
申请号:CN202210088178.0
申请日:2022-01-25
Applicant: 武汉工程大学 , 武汉逸锦科技有限公司
IPC: H04N21/231 , H04N21/234
Abstract: 本申请涉及一种视频处理系统、方法、装置、电子设备和存储介质,属于软件监控技术领域。包括:边缘端中的前置服务单元用于获取应用场景设备端采集的初始视频数据,对初始视频数据进行目标对象识别操作,以提取包含目标对象的图像帧,并发送至算法服务单元;边缘端中的算法服务单元用于对于每帧包含目标对象的图像帧,根据该图像帧对应的当前应用场景,确定对应的对象提取模型,根据当前应用场景对应的对象提取模型提取图像帧中的目标对象,得到图像帧的目标数据;云端用于存储初始视频数据对应的目标数据。本申请具备高效率的图像处理能力,根据不同的应用场景加载不同的对象提取模型,并非一个应用场景对应一个视频处理系统,适用范围较广。
-
公开(公告)号:CN111709991A
公开(公告)日:2020-09-25
申请号:CN202010467531.7
申请日:2020-05-28
Applicant: 武汉工程大学 , 武汉引行科技有限公司
Abstract: 本发明涉及一种铁路工机具的检测方法、系统、装置和存储介质,方法包括获取多个工机具图像,根据所有工机具图像制作数据集;构建深度卷积神经网络,利用数据集和深度卷积神经网络构建反射图像提取网络,根据深度卷积神经网络和反射图像提取网络得到特征检测网络,根据深度卷积神经网络、反射图像提取网络和特征检测网络得到初始检测网络模型;利用数据集对初始检测网络模型进行训练,得到目标检测网络模型;根据目标检测网络模型对待检测工机具图像进行检测,得到检测结果。本发明可有效解决背景复杂、光照不均以及目标尺度差异大、形态复杂和存在遮挡等问题,对铁路工机具进行快速而准确地目标检测,实现铁路工机具的自动清点。
-
公开(公告)号:CN104700078B
公开(公告)日:2018-06-08
申请号:CN201510081168.4
申请日:2015-02-13
Applicant: 武汉工程大学
Abstract: 本发明公开了一种基于尺度不变特征极限学习机的机器人场景识别算法,该方法包括以下步骤:首先,利用尺度不变特征表达机器人视觉图像的场景,其次使用K均值聚类算法实现机器人场景图像表达码本,最后利用极限学习机算法建立机器人视觉场景图像和场景标签之间的映射关系。本方法利用了极限学习机的优点,降低了传统神经网络的参数估计和优化的复杂度,进一步缩短了训练时间和提高了机器人场景图像的识别率。
-
公开(公告)号:CN105608006A
公开(公告)日:2016-05-25
申请号:CN201510982321.0
申请日:2015-12-22
Applicant: 武汉工程大学
IPC: G06F11/36
CPC classification number: G06F11/3612 , G06F11/3684
Abstract: 本发明公开了一种基于概率模型的程序错误检测方法及系统,该方法包括以下步骤:S1、获取概率模型和待检测程序,从待检测程序中提取待检测的函数调用序列集合;S2、获取单个待检测的函数调用序列,求解最相似的函数调用序列集合,并计算联合概率;S3、根据相似集合对该待检测序列进行检测并生成修复方案;S4、完成该待检测序列的检测和修复后,记录检测到的各个错误信息及修复方案;S5、对待检测集合中的所有待检测序列检测完毕后,输出程序错误报告。本发明无需处理概率模型转换到确定性模型时的阈值选择问题,能够快速的检测程序中的错误,且检测准确率高。
-
公开(公告)号:CN105389819A
公开(公告)日:2016-03-09
申请号:CN201510776198.7
申请日:2015-11-13
Applicant: 武汉工程大学
CPC classification number: G06T5/006 , G06T2207/10032
Abstract: 本发明公开了一种鲁棒的半标定下视图像极线校正方法及系统,该方法包括以下步骤:S1、获取无人飞行器每一成像时刻下视相机拍摄的图像,相机的内参数矩阵,以及无人飞行器的惯导系统提供的姿态参数,构建平行于地平面的虚拟成像环境;S2、对不同成像时刻的图像分别提取特征点,构建初始特征点对应集合;并根据该集合得到变换后的特征点对应集合;S3、构建概率表达模型,计算无人飞行器的航向与正北方向的夹角;S4、计算单应变换矩阵,并根据该矩阵,对每一成像时刻的图像进行极线校正。本发明能够快速的完成校正,并且能够得到精度较高的校正图像,对于无人机辅助导航等应用领域具有重要的指导意义。
-
公开(公告)号:CN105354841A
公开(公告)日:2016-02-24
申请号:CN201510687565.6
申请日:2015-10-21
Applicant: 武汉工程大学
CPC classification number: G06T5/40 , G06T2207/10032
Abstract: 本发明公开了一种快速遥感影像匹配方法及系统,该方法包括以下步骤:S1、获取基准影像和待匹配影像并对其进行粗匹配,分别对两幅影像构建积分直方图,根据待匹配影像与基准影像积分直方图的相似度确定候选匹配区域;S2、对待匹配影像和候选匹配区域进行精匹配,具体步骤为:S21、在待匹配影像和候选匹配区域中进行特征提取,并构建特征点匹配集合;S22、根据特征点的匹配集合构建概率表达模型和特征点映射的形式化表达;S23、根据最大期望算法剔除误匹配,计算得出精确匹配模型,并通过精确匹配模型得到影像的精确匹配区域。本发明大大缩短了影像匹配的过程,提高了匹配的精度和算法的鲁棒性。
-
公开(公告)号:CN111709991B
公开(公告)日:2023-11-07
申请号:CN202010467531.7
申请日:2020-05-28
Applicant: 武汉工程大学 , 武汉引行科技有限公司
IPC: G06T7/70 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及一种铁路工机具的检测方法、系统、装置和存储介质,方法包括获取多个工机具图像,根据所有工机具图像制作数据集;构建深度卷积神经网络,利用数据集和深度卷积神经网络构建反射图像提取网络,根据深度卷积神经网络和反射图像提取网络得到特征检测网络,根据深度卷积神经网络、反射图像提取网络和特征检测网络得到初始检测网络模型;利用数据集对初始检测网络模型进行训练,得到目标检测网络模型;根据目标检测网络模型对待检测工机具图像进行检测,得到检测结果。本发明可有效解决背景复杂、光照不均以及目标尺度差异大、形态复杂和存在遮挡等问题,对铁路工机具进行快速而准确地目标检测,实现铁路工机具的自动清点。
-
公开(公告)号:CN110688368B
公开(公告)日:2023-06-20
申请号:CN201910929085.4
申请日:2019-09-28
Applicant: 武汉工程大学
Inventor: 陈灯 , 张哲泓 , 魏巍 , 张彦铎 , 李晓林 , 鞠剑平 , 唐剑影 , 刘玮 , 段功豪 , 卢涛 , 周华兵 , 李迅 , 于宝成 , 徐文霞 , 鲁统伟 , 闵峰 , 朱锐 , 彭丽 , 王逸文
IPC: G06F16/21 , G06F16/2458 , G06F16/28
Abstract: 本发明公开了一种构件行为模型挖掘方法与装置,该方法包括:S1)运行包含构件的软件,动态采集构件的带参行为交互序列,构成序列集合;S2)合并具有不同参数值的相同构件行为交互序列;S3)基于合并后的构件行为交互序列构建一棵树;S4)合并树中的等价节点获得有限状态机R’;S5)根据参数观察值集合归纳参数的不变式作为有限状态机R’中对应边的守护条件;S6)计算有限状态机R’中构件行为满足参数不变式的概率;S7)基于步骤S6)中迁移发生的概率得到最终的带参概率自动机表示的构件行为模型。本发明考虑了构件行为模型中参数‑构件行为之间的依赖关系并采用概率模型对模型挖掘过程中的噪声进行有效处理,可获得更精确的构件行为模型。
-
公开(公告)号:CN111531581B
公开(公告)日:2023-02-03
申请号:CN202010342989.X
申请日:2020-04-27
Applicant: 武汉工程大学
Abstract: 本发明提供一种基于视觉的工业机器人故障动作检测方法及系统,其中,一种基于视觉的工业机器人故障动作检测方法,包括以下步骤,S1:采集工业机器人标准作业视频,建立工业机器人标准作业模式视频帧序列;S2:实时采集工业机器人作业图像,获取工业机器人实时动作图像;S3:将工业机器人实时动作图像与工业机器人标准作业模式视频帧序列进行匹配,判断工业机器人标准作业模式视频帧序列中是否存在与工业机器人实时动作图像近似匹配的图像,若是,执行S2,若否,执行S4;S4:控制工业机器人急停。本发明具有采用非接触式的方式发现工业机器人本体突发故障,避免在人机协作时发生机器人伤人的安全事故、检测过程简单准确的优点。
-
-
-
-
-
-
-
-
-