-
公开(公告)号:CN113610126A
公开(公告)日:2021-11-05
申请号:CN202110838933.8
申请日:2021-07-23
Applicant: 武汉工程大学
Abstract: 本发明公开了一种基于多目标检测模型无标签的知识蒸馏方法及存储介质,属于计算机视觉目标检测领域,该方法包括以下步骤:S1、获取多类别数据集;S2、利用不同类别的数据集训练出不同的教师网络,将无标签的图片输入至学生网络和多个教师网络,引导学生网络训练;学生网络的类别为多个教师网络类别的组合;S3、设计全局蒸馏损失以及自适应损失,平衡多个不同教师网络和学生网络之间的蒸馏损失,平衡不同教师网络之间的语言特性,优化学生网络训练过程。本发明能够有效提炼出不同教师网络中的多类别信息,进行完整类别的目标检测,并且在单一数据集的制定类别上与教师网络持平甚至超越。
-
公开(公告)号:CN112902872A
公开(公告)日:2021-06-04
申请号:CN202110285459.0
申请日:2021-03-17
Applicant: 武汉工程大学
IPC: G01B11/24
Abstract: 本发明提出一种基于激光传感器的轴承内孔测量装置及方法,包括底座、轴承夹具、滑动平台、旋转关节、激光测距传感器和控制模块,具体包括如下步骤:步骤S1:确定激光测距传感器的运动学模型和参数,并建立三维坐标系;步骤S2:使用激光测距仪对轴承内壁进行测量,获取轴承内壁三维点云数据;步骤S3:对所得到的的三维点云数据进行特征提取;步骤S4:去噪处理,使用滤波对点云数据进行平滑处理;步骤S5:使用三维重建算法对处理过高的点云数据进行重建,得到相对应的轴承内壁完整的三维模型。本发明能够快速方便的采集轴承内孔信息,并绘制出三维模型。
-
公开(公告)号:CN112750082A
公开(公告)日:2021-05-04
申请号:CN202110081811.9
申请日:2021-01-21
Applicant: 武汉工程大学 , 武汉烽火技术服务有限公司
Abstract: 本发明公开了一种基于融合注意力机制的人脸超分辨率方法及系统,属于人脸图像超分辨率领域,该方法包括:将高分辨率人脸图像下采样至目标低分辨率人脸图像后,进行分块操作,分出相互重叠的图像块后,使用浅层特征提取器提取浅层特征;融合像素、通道和空间三重注意力模块的特征,增强重建的人脸面部结构细节;构建融合注意力网络作为深层特征提取器,将浅层的面部特征输入融合注意力网络获得深层特征,融合注意力网络包含若干融合注意力组,各融合注意力组包括若干融合注意力块;将深层特征图进行上采样,将上采样后的人脸特征图重建成目标的高分辨率人脸图像。本发明优于其他最新的人脸图像超分辨率算法,能生成更高质量的人脸高分辨率图像。
-
公开(公告)号:CN111709991A
公开(公告)日:2020-09-25
申请号:CN202010467531.7
申请日:2020-05-28
Applicant: 武汉工程大学 , 武汉引行科技有限公司
Abstract: 本发明涉及一种铁路工机具的检测方法、系统、装置和存储介质,方法包括获取多个工机具图像,根据所有工机具图像制作数据集;构建深度卷积神经网络,利用数据集和深度卷积神经网络构建反射图像提取网络,根据深度卷积神经网络和反射图像提取网络得到特征检测网络,根据深度卷积神经网络、反射图像提取网络和特征检测网络得到初始检测网络模型;利用数据集对初始检测网络模型进行训练,得到目标检测网络模型;根据目标检测网络模型对待检测工机具图像进行检测,得到检测结果。本发明可有效解决背景复杂、光照不均以及目标尺度差异大、形态复杂和存在遮挡等问题,对铁路工机具进行快速而准确地目标检测,实现铁路工机具的自动清点。
-
公开(公告)号:CN111105354A
公开(公告)日:2020-05-05
申请号:CN201911349902.5
申请日:2019-12-24
Applicant: 武汉工程大学 , 武汉烽火技术服务有限公司
Abstract: 本发明公开了一种基于多源深度残差网络的深度图像超分辨率方法及装置,属于深度图像超分辨率领域。由于彩色图像拥有丰富的纹理信息,本发明利用纹理信息丰富的彩色图像引导深度图像进行重建。因为残差信息代表图像的高频信息,因此本发明首先将高分辨率图像下采样至目标低分辨率图像,并且在双分支网络中分别提取输入的低分辨率彩色图像和深度图像的残差信息,然后将提取到的彩色图像和深度图像的残差信息在融合网络中进行融合,最后利用融合后的残差信息和输入的低分辨率深度图像对高分辨率深度图像进行重建。通过本发明提升了网络的重建性能,使得重建后的深度图像有较高质量的纹理信息。
-
公开(公告)号:CN110930309A
公开(公告)日:2020-03-27
申请号:CN201911140189.3
申请日:2019-11-20
Applicant: 武汉工程大学 , 武汉烽火技术服务有限公司
Inventor: 卢涛 , 王宇 , 张彦铎 , 姚全锋 , 杨泳 , 吴昊 , 石子慧 , 石仝彤 , 陈冲 , 许若波 , 周强 , 郝晓慧 , 魏博识 , 郎秀娟 , 吴志豪 , 王彬 , 陈中婷 , 王布凡 , 刘奥琦 , 陈润斌
Abstract: 本发明公开了一种基于多视图纹理学习的人脸超分辨率方法及装置,属于人脸图像超分辨率领域,该方法包括:首先将高分辨率人脸图像对下采样至目标低分辨率人脸图像对,将目标低分辨率人脸图像对进行分块操作,分出相互重叠的图像块后,使用残差池化模块网络提取脸部纹理多尺度特征。然后,将提取的脸部多尺度特征发送到纹理注意力模块,以通过计算注意图来融合补偿纹理信息,收集最相似的特征,以更有效的提高SR性能。最后,通过特征融合来更新目标视图图像的特征图以产生高分辨率结果。本发明所提出的网络优于其他最新的人脸图像超分辨率算法,能生成更高质量的人脸图像。
-
公开(公告)号:CN110580680A
公开(公告)日:2019-12-17
申请号:CN201910849721.2
申请日:2019-09-09
Applicant: 武汉工程大学 , 武汉烽火技术服务有限公司
IPC: G06T3/40
Abstract: 本发明公开了一种基于组合学习的人脸超分辨率方法及装置,属于人脸图像超分辨率领域,该方法包括:对下采样得到的低分辨率人脸图像进行组件分割;将低分辨率人脸图像和分割后的人脸组件图像块进行分块操作,分出相互重叠的图像块;将图像块输入各组件生成对抗网络产生高分辨率组件图像块,由上采样后的低分辨率人脸背景图像生成高分辨率人脸背景图像;通过融合网络提取高分辨率图像块特征及人脸背景图像组件特征;将两种特征进行融合后,重建得到目标人脸组件图像块;通过人脸组件在人脸图像中的坐标点,将目标人脸组件图像块对应合并至高分辨率人脸背景图像中,形成高分辨率人脸图像。本发明可以提高网络的重建性能,产生更高质量的人脸图像。
-
公开(公告)号:CN106326843B
公开(公告)日:2019-08-16
申请号:CN201610669093.6
申请日:2016-08-15
Applicant: 武汉工程大学
IPC: G06K9/00
Abstract: 本发明公开了一种人脸识别方法,在人脸集合中提取出p张人脸图像,将人脸集合中剩余的图像分为n类人脸图像并作为训练样本库,采用训练样本库中的类别均值信息对P张人脸图像进行预分类,在分类之后将P个人脸图像中的每张图像和对应类别的图像一并进行低秩恢复,获得低秩恢复图像和稀疏误差图像。依据低秩图像的低秩性对噪声鲁棒的原理,利用训练样本库训练极限学习机,最后将P个人脸图像对应的低秩恢复图像作为测试样本库,利用极限学习机作为标准,建立P个人脸图像和训练之后得到的人脸标签之间的映射关系,对P个人脸图像对应的低秩恢复图像进行人脸识别,不但提升了极限学习机的识别鲁棒性,还降低了计算复杂度。
-
公开(公告)号:CN109886869A
公开(公告)日:2019-06-14
申请号:CN201811199243.7
申请日:2018-10-15
Applicant: 武汉工程大学
Abstract: 本发明公开了一种基于上下文信息的非线性拓展的人脸超分辨率方法,该方法首先通过上下文块对上下文信息进行抽样,以丰富人脸图像表示的先验信息,并在正则化目标函数时利用设置阈值对上下文字典进行降维,然后利用高斯核函数将原始数据转化为核空间,通过协作表示建立高低分辨率图像之间的非线性关系,最后采用上下文残差学习重建出待测图像。本方法通过高斯核函数建立高低分辨率图像之间的非线性映射,并将高维特征空间中的非线性问题表示为线性问题。此外,它还使用上下文残差学习来获得更准确的图像表示的先验信息,提高了重建的性能。
-
公开(公告)号:CN105550649B
公开(公告)日:2019-03-08
申请号:CN201510906586.2
申请日:2015-12-09
Applicant: 武汉工程大学
IPC: G06K9/00
Abstract: 本发明公开了一种基于全耦合局部约束表示的极低分辨率人脸识别方法及系统,该方法包括以下两个阶段:训练阶段和测试阶段;训练阶段包括以下三个步骤:S1、对表达字典进行更新;S2、计算其在局部约束和线性重建条件下的最优权值系数;S3、确定最优的神经元个数;测试阶段包括以下三个步骤:S4、获取待识别的低分辨率人脸图像计算其低分辨率表达系数;S5、利用高分辨率表达系数作为图像耦合局部约束特征;S6、得出识别结果。本发明提升了极低分辨率图像的表达能力,提升了在极低人脸图像上的识别率;最后通过极限学习机完成人脸识别,使识别结果更加准确。
-
-
-
-
-
-
-
-
-