-
公开(公告)号:CN110458758B
公开(公告)日:2022-04-29
申请号:CN201910687010.X
申请日:2019-07-29
Applicant: 武汉工程大学
Abstract: 本发明涉及一种图像超分辨率重建方法、系统及计算机存储介质,其方法包括以下步骤,S1,将原始图像重塑为固定大小尺寸的图像,得到原始高分辨率图像,将原始高分辨率图像进行插值下采样,得到低分辨率图像;S2,基于生成网络对低分辨率图像进行基于边缘增强的超分辨率重建,得到超分辨率图像;S3,基于判别网络和原始高分辨率图像对超分辨率图像进行真伪判别。本发明其将单一的低分辨图像通过边缘细节信息增强表达,在原始超分辨率重建生成网络中加入边缘增强融合网络提高了图像超分辨率重建性能,获得更清晰的重建图像;另外,判别网络也可以提升边缘增强生成对抗网络的重建性能。
-
公开(公告)号:CN113610126A
公开(公告)日:2021-11-05
申请号:CN202110838933.8
申请日:2021-07-23
Applicant: 武汉工程大学
Abstract: 本发明公开了一种基于多目标检测模型无标签的知识蒸馏方法及存储介质,属于计算机视觉目标检测领域,该方法包括以下步骤:S1、获取多类别数据集;S2、利用不同类别的数据集训练出不同的教师网络,将无标签的图片输入至学生网络和多个教师网络,引导学生网络训练;学生网络的类别为多个教师网络类别的组合;S3、设计全局蒸馏损失以及自适应损失,平衡多个不同教师网络和学生网络之间的蒸馏损失,平衡不同教师网络之间的语言特性,优化学生网络训练过程。本发明能够有效提炼出不同教师网络中的多类别信息,进行完整类别的目标检测,并且在单一数据集的制定类别上与教师网络持平甚至超越。
-
公开(公告)号:CN112902872A
公开(公告)日:2021-06-04
申请号:CN202110285459.0
申请日:2021-03-17
Applicant: 武汉工程大学
IPC: G01B11/24
Abstract: 本发明提出一种基于激光传感器的轴承内孔测量装置及方法,包括底座、轴承夹具、滑动平台、旋转关节、激光测距传感器和控制模块,具体包括如下步骤:步骤S1:确定激光测距传感器的运动学模型和参数,并建立三维坐标系;步骤S2:使用激光测距仪对轴承内壁进行测量,获取轴承内壁三维点云数据;步骤S3:对所得到的的三维点云数据进行特征提取;步骤S4:去噪处理,使用滤波对点云数据进行平滑处理;步骤S5:使用三维重建算法对处理过高的点云数据进行重建,得到相对应的轴承内壁完整的三维模型。本发明能够快速方便的采集轴承内孔信息,并绘制出三维模型。
-
公开(公告)号:CN112750082A
公开(公告)日:2021-05-04
申请号:CN202110081811.9
申请日:2021-01-21
Applicant: 武汉工程大学 , 武汉烽火技术服务有限公司
Abstract: 本发明公开了一种基于融合注意力机制的人脸超分辨率方法及系统,属于人脸图像超分辨率领域,该方法包括:将高分辨率人脸图像下采样至目标低分辨率人脸图像后,进行分块操作,分出相互重叠的图像块后,使用浅层特征提取器提取浅层特征;融合像素、通道和空间三重注意力模块的特征,增强重建的人脸面部结构细节;构建融合注意力网络作为深层特征提取器,将浅层的面部特征输入融合注意力网络获得深层特征,融合注意力网络包含若干融合注意力组,各融合注意力组包括若干融合注意力块;将深层特征图进行上采样,将上采样后的人脸特征图重建成目标的高分辨率人脸图像。本发明优于其他最新的人脸图像超分辨率算法,能生成更高质量的人脸高分辨率图像。
-
公开(公告)号:CN112465858A
公开(公告)日:2021-03-09
申请号:CN202011454498.0
申请日:2020-12-10
Applicant: 武汉工程大学
Abstract: 本发明公开了一种基于概率网格滤波的语义视觉SLAM方法,包括步骤:使用摄像机传感器依次采集场景的RGB图像,并对采集的图像进行ORB特征点提取、超点分割和语义分割;创建并初始化概率网格;计算特征点在上下帧间的匹配信息,并使用匹配信息将上帧中网格概率传播到相应下帧概率网格中,完成概率网格更新;对其匹配点进行运动一致性检查,更新概率网格的运动状态;根据更新后的概率网格,使用贝叶斯概率公式更新当前概率网格的属性,并创建动态区域的掩膜;根据提取的ORB特征点,使用动态区域的掩膜进行滤波,删除概率较高的动态特征点;将保留的特征点用于跟踪、局部建图和回环检测,最终实现概率网格增强语义视觉SLAM。
-
公开(公告)号:CN112463340A
公开(公告)日:2021-03-09
申请号:CN202011456701.8
申请日:2020-12-10
Applicant: 武汉工程大学
Abstract: 本发明公开了一种基于tensorflow的多任务弹性调度方法及系统,其中方法包括以下步骤:利用任务管理系统对进入集群中的任务进行预处理,允许集群中存在多个任务同时进行;从任务管理系统的配置文件中获取集群中所有GPU资源数量,利用可用GPU数量为训练任务划分数据集,将每部分数据集划分到指定GPU;在每个GPU上为任务弹性分配显存资源,弹性扩展空闲GPU以提升训练速度;在每部分数据集上完成梯度下降,获得每部分的当前梯度;利用群集间的通信将梯度进行累加得到当前的总梯度;将总梯度广播至每个GPU,再进行下一次梯度下降。本发明能够弹性的调度多任务进入到集群中,利用集群已有资源高效的完成分布式计算。
-
公开(公告)号:CN111709991A
公开(公告)日:2020-09-25
申请号:CN202010467531.7
申请日:2020-05-28
Applicant: 武汉工程大学 , 武汉引行科技有限公司
Abstract: 本发明涉及一种铁路工机具的检测方法、系统、装置和存储介质,方法包括获取多个工机具图像,根据所有工机具图像制作数据集;构建深度卷积神经网络,利用数据集和深度卷积神经网络构建反射图像提取网络,根据深度卷积神经网络和反射图像提取网络得到特征检测网络,根据深度卷积神经网络、反射图像提取网络和特征检测网络得到初始检测网络模型;利用数据集对初始检测网络模型进行训练,得到目标检测网络模型;根据目标检测网络模型对待检测工机具图像进行检测,得到检测结果。本发明可有效解决背景复杂、光照不均以及目标尺度差异大、形态复杂和存在遮挡等问题,对铁路工机具进行快速而准确地目标检测,实现铁路工机具的自动清点。
-
公开(公告)号:CN106778766B
公开(公告)日:2020-05-22
申请号:CN201611031403.8
申请日:2016-11-18
Applicant: 武汉工程大学
Abstract: 本发明公开了一种基于定位点的旋转数字识别方法及系统,方法包括:S1、对输入的视频帧图像进行预处理,得到相应的灰度图像;S2、对灰度图像进行轮廓提取,得到灰度图像中的色块的定位点位置、宽度和长度;S3、根据定位点位置对灰度图像进行旋转矫正,得到矫正图像和矫正定位点位置;S4、根据矫正定位点位置、色块的宽度和长度对矫正图像进行图像分割,得到只包含数字部分的数字图像;S5、对数字图像进行灰度化,通过深度学习模型和分类器得到数字图像中的数字。本发明产生的有益效果是:保证了定位点和矫正角度的准确性,识别率高,参数设置较简单,训练速度快,实际使用时可以直接载入训练好的网络进行使用。
-
公开(公告)号:CN111105354A
公开(公告)日:2020-05-05
申请号:CN201911349902.5
申请日:2019-12-24
Applicant: 武汉工程大学 , 武汉烽火技术服务有限公司
Abstract: 本发明公开了一种基于多源深度残差网络的深度图像超分辨率方法及装置,属于深度图像超分辨率领域。由于彩色图像拥有丰富的纹理信息,本发明利用纹理信息丰富的彩色图像引导深度图像进行重建。因为残差信息代表图像的高频信息,因此本发明首先将高分辨率图像下采样至目标低分辨率图像,并且在双分支网络中分别提取输入的低分辨率彩色图像和深度图像的残差信息,然后将提取到的彩色图像和深度图像的残差信息在融合网络中进行融合,最后利用融合后的残差信息和输入的低分辨率深度图像对高分辨率深度图像进行重建。通过本发明提升了网络的重建性能,使得重建后的深度图像有较高质量的纹理信息。
-
公开(公告)号:CN110930309A
公开(公告)日:2020-03-27
申请号:CN201911140189.3
申请日:2019-11-20
Applicant: 武汉工程大学 , 武汉烽火技术服务有限公司
Inventor: 卢涛 , 王宇 , 张彦铎 , 姚全锋 , 杨泳 , 吴昊 , 石子慧 , 石仝彤 , 陈冲 , 许若波 , 周强 , 郝晓慧 , 魏博识 , 郎秀娟 , 吴志豪 , 王彬 , 陈中婷 , 王布凡 , 刘奥琦 , 陈润斌
Abstract: 本发明公开了一种基于多视图纹理学习的人脸超分辨率方法及装置,属于人脸图像超分辨率领域,该方法包括:首先将高分辨率人脸图像对下采样至目标低分辨率人脸图像对,将目标低分辨率人脸图像对进行分块操作,分出相互重叠的图像块后,使用残差池化模块网络提取脸部纹理多尺度特征。然后,将提取的脸部多尺度特征发送到纹理注意力模块,以通过计算注意图来融合补偿纹理信息,收集最相似的特征,以更有效的提高SR性能。最后,通过特征融合来更新目标视图图像的特征图以产生高分辨率结果。本发明所提出的网络优于其他最新的人脸图像超分辨率算法,能生成更高质量的人脸图像。
-
-
-
-
-
-
-
-
-