-
公开(公告)号:CN114820321B
公开(公告)日:2024-12-27
申请号:CN202210513403.0
申请日:2022-05-11
Applicant: 武汉工程大学
IPC: G06T3/4053 , G06T3/4046 , G06N3/045 , G06N3/0464 , G06N3/0475 , G06N3/094
Abstract: 本发明公开了一种基于双重判别生成对抗网络的人脸图像超分辨率方法及装置,属于人脸图像超分辨率领域,该方法包括:首先,生成对抗网络通过将残差学习和密集连接学习结合,构造密集‑残差块,在不增加网络深度和参数的情况下增强了特征提取能力;其次,对判别网络进行改进,增加了局部判别器,使得重建图像的纹理细节更加真实和丰富;最后提出了新的联合损失函数。本发明所提出的网络优于其他最新的人脸图像超分辨率算法,能生成更高质量的人脸图像,且在低分辨率人脸数据集上的实验证明了该算法的有效性。
-
公开(公告)号:CN118297841B
公开(公告)日:2024-10-25
申请号:CN202410334859.X
申请日:2024-03-22
Applicant: 武汉工程大学
IPC: G06T5/73 , G06T5/50 , G06T5/60 , G06N3/0464
Abstract: 本申请涉及一种全色锐化模型的构建方法、系统、设备及介质,方法包括:获取预设的地面实况的高分辨率多光谱图像和全色图像;在预设的最大后验概率模型中,利用预设误差图像、高分辨率多光谱图像和全色图像,确定预测误差图像;利用预测误差图像、高分辨率多光谱图像和全色图像,确定融合全色锐化图像;确定融合全色锐化图像与预设的地面实况的真实图像之间的绝对误差,基于绝对误差得到目标全色锐化模型。解决了进行融合的多光谱图像和全色图像存在着光谱响应的差异,导致了误差信息的引入,融合生成的全色锐化图像会出现光谱失真问题,从而降低全色锐化图像的准确性的问题。
-
公开(公告)号:CN114852315B
公开(公告)日:2024-10-18
申请号:CN202210513454.3
申请日:2022-05-11
Applicant: 武汉工程大学
IPC: B64C19/00
Abstract: 本发明提供一种无人机运输系统、方法及存储介质,属于智能交通技术领域,包括无人机和控制中心,无人机用于获取环境参数和无人机机械参数,并从设置在无人机上的湿度传感器中获得湿度数据;判断湿度数据是否大于或等于温度阈值,若是则从设置在无人机上的存储器中导出预先存储的环境故障解决方案;若否则判断无人机机械参数是否为预设异常值,若是则从存储器中导出预先存储的自身机械故障解决方案;若否则生成未知异常信号,并将未知异常信号发送至控制中心中。本发明提升了无人机的运输效率,可以有效的解决自动驾驶交通工具适应性差,应对突发状况能力弱的问题,且能够大大地提升无人机的运输效率,降低的故障率,应用前景广泛。
-
公开(公告)号:CN118521518A
公开(公告)日:2024-08-20
申请号:CN202410583424.9
申请日:2024-05-11
Applicant: 武汉工程大学 , 湖北文理学院 , 武汉市烽视威科技有限公司 , 武汉烽火技术服务有限公司
Abstract: 本发明涉及一种基于空域增强的上采样方法、系统及计算设备。方法包括:实时获取机房巡检机器人的至少一帧巡检特征图;提高所述巡检特征图的通道数至第一预设倍数以获得通道特征图,并对所述通道特征图进行通道特征重组和卷积处理,获得第一待融合特征图;对所述巡检特征图上采样第二预设倍数以获得上采样特征图,并对所述上采样特征图进行维度调序、池化和拼接操作,获得第二待融合特征图;将所述第一待融合特征图和所述第二待融合特征图进行融合,获得目标特征图。该方法能够提高目标特征图中空域信息表达的能力,以使上采样后所获得的目标特征图中所丢失的信息较少,从而提高机房巡检机器人的巡检精度。
-
公开(公告)号:CN117953589B
公开(公告)日:2024-07-05
申请号:CN202410354224.6
申请日:2024-03-27
IPC: G06V40/20 , G06V10/22 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/082 , G06N3/096
Abstract: 本发明涉及一种交互动作检测方法、系统、设备及介质,方法包括:获取待测三元交互动作图像;对待测三元交互动作图像进行特征提取,获得至少一个第一人物框、至少一个第一工具框和至少一个第一物体框;若任意一个第一人物框、任意一个第一工具框和任意一个第一物体框三个框具有第一重合区域,则将每个第一重合区域对应的三个框组合而成的区域作为一个交互动作检测候选框;对每个交互动作检测候选框进行识别,确定每个交互动作检测候选框对应的交互动作类别。解决了目前的动作交互动作检测方法只能检测出当前图像场景中人与物体的交互动作,无法检测出人、工具与物体之间的三元交互动作的问题。
-
公开(公告)号:CN114863937B
公开(公告)日:2024-06-18
申请号:CN202210536031.3
申请日:2022-05-17
Applicant: 武汉工程大学
Abstract: 本发明提供了基于深度迁移学习与XGBoost的混合鸟鸣识别方法,通过计算log‑Mel频谱图的一阶差分系数和二阶差分系数,反映鸟鸣信号的变化过程,在保留物种有效信息的同时减少环境噪声等无关因素的影响,提升了识别鸟类物种的准确率;减少了环境背景噪声等无关因素的影响,有效识别了自然场景下的多种鸟类物种。本发明采用深度迁移学习微调VGG16模型构建特征提取器,提升了少样本训练数据下深度卷积神经网络的泛化能力,减少了参数训练,提升了运行效率。本发明将鸟鸣信号更准确的映射为鸟类物种,对自然环境中多种鸟类鸣声均具有良好的识别性能。
-
公开(公告)号:CN117934869A
公开(公告)日:2024-04-26
申请号:CN202410331986.4
申请日:2024-03-22
Applicant: 中铁大桥局集团有限公司 , 中铁大桥科学研究院有限公司 , 武汉工程大学
IPC: G06V10/46 , G06V10/44 , G06V10/774 , G06V10/82 , G06N3/0475 , G06N3/094
Abstract: 本发明涉及一种目标检测方法、系统、计算设备以及介质。方法包括:获取高空监控视角的目标数据域和无人机视角的源数据域,并将所述目标数据域和所述源数据域作为训练集输入到初始模型中进行训练;在训练过程中确定所述判别损失值、对抗损失值和回归损失值;基于所述判别损失值对所述判别网络的参数进行调整,基于所述对抗损失值和所述回归损失值对初始模型的参数进行调整;直至迭代预设次轮后,获得训练完成的目标检测模型;获取高空监控视角的数据并将其输入到所述目标检测模型,获得检测结果。能够使目标检测模型较为准确地识别高空监控场景中不同尺度的待检测目标,以提高在面向实际高空监控场景中,目标检测模型的性能表现。
-
公开(公告)号:CN113610778B
公开(公告)日:2024-03-26
申请号:CN202110817766.9
申请日:2021-07-20
Applicant: 武汉工程大学
IPC: G06T7/00 , G06T7/11 , G06V10/764 , G06V10/44 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明公开了一种基于语义分割的桥梁表面裂纹检测方法和系统,包括:采集桥梁裂纹图像并对图像进行像素级语义标注,制作桥梁裂纹分割数据集;构建基于特征编码和解码的语义分割网络并利用基于十字交叉注意力的跳跃连接用于联合高级语义和低级的细粒度表层信息;在一般分类损失的基础上利用一种类别一致性损失,使网络将图像中的每个像素映射到特征空间中的n维向量,以使属于该类别的像素的特征向量则靠近,不同类别的像素的特征向量远离;在得到分割产生的裂纹图像后提取裂纹形态学骨架,并进行裂纹短枝消去以计算裂纹长度;基于骨架方向上的图像裂纹计算宽度像素。本发明能实现桥梁裂纹的快速精确分割,并使得分割出的裂纹图像结构更加的完整。
-
公开(公告)号:CN117315224A
公开(公告)日:2023-12-29
申请号:CN202311147316.9
申请日:2023-09-06
IPC: G06V10/25 , G06V10/764 , G06V10/766
Abstract: 本发明提供一种改进边界框回归损失的目标检测方法、系统及介质,涉及计算机视觉技术领域;方法包括:步骤S1,预先对目标物体的真实边界框和类别进行标注,构成训练数据集;步骤S2,将训练数据集中的图片输入训练后的检测模型中进行预测,得到预测类别和预测边界框;步骤S3,构建损失函数,通过损失函数对定位损失进行计算;步骤S4,根据定位损失对检测模型进行优化,并将训练后的检测模型替换为优化检测模型,重复步骤S2‑S4,直至达到预设训练次数;步骤S5,将待检测图片输入训练后的优化检测模型进行预测,得到目标边界框位置和目标分类。通过构建边界框回归损失使预测框拟合度更高,从而优化检测模型,加快收敛,提升检测的精度。
-
公开(公告)号:CN113610126B
公开(公告)日:2023-12-05
申请号:CN202110838933.8
申请日:2021-07-23
Applicant: 武汉工程大学
IPC: G06F18/2415 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了一种基于多目标检测模型无标签的知识蒸馏方法及存储介质,属于计算机视觉目标检测领域,该方法包括以下步骤:S1、获取多类别数据集;S2、利用不同类别的数据集训练出不同的教师网络,将无标签的图片输入至学生网络和多个教师网络,引导学生网络训练;学生网络的类别为多个教师网络类别的组合;S3、设计全局蒸馏损失以及自适应损失,平衡多个不同教师网络和学生网络之间的蒸馏损失,平衡不同教师网络之间的语言特性,优化学生网络训练过程。本发明能够有效提炼出不同教师网络中的多类别信息,进行完整类别的目标检测,并且在单一数据集的制定类别上与教师网络持平甚至超越。
-
-
-
-
-
-
-
-
-