-
公开(公告)号:CN118521518A
公开(公告)日:2024-08-20
申请号:CN202410583424.9
申请日:2024-05-11
Applicant: 武汉工程大学 , 湖北文理学院 , 武汉市烽视威科技有限公司 , 武汉烽火技术服务有限公司
Abstract: 本发明涉及一种基于空域增强的上采样方法、系统及计算设备。方法包括:实时获取机房巡检机器人的至少一帧巡检特征图;提高所述巡检特征图的通道数至第一预设倍数以获得通道特征图,并对所述通道特征图进行通道特征重组和卷积处理,获得第一待融合特征图;对所述巡检特征图上采样第二预设倍数以获得上采样特征图,并对所述上采样特征图进行维度调序、池化和拼接操作,获得第二待融合特征图;将所述第一待融合特征图和所述第二待融合特征图进行融合,获得目标特征图。该方法能够提高目标特征图中空域信息表达的能力,以使上采样后所获得的目标特征图中所丢失的信息较少,从而提高机房巡检机器人的巡检精度。
-
公开(公告)号:CN117953589B
公开(公告)日:2024-07-05
申请号:CN202410354224.6
申请日:2024-03-27
IPC: G06V40/20 , G06V10/22 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/082 , G06N3/096
Abstract: 本发明涉及一种交互动作检测方法、系统、设备及介质,方法包括:获取待测三元交互动作图像;对待测三元交互动作图像进行特征提取,获得至少一个第一人物框、至少一个第一工具框和至少一个第一物体框;若任意一个第一人物框、任意一个第一工具框和任意一个第一物体框三个框具有第一重合区域,则将每个第一重合区域对应的三个框组合而成的区域作为一个交互动作检测候选框;对每个交互动作检测候选框进行识别,确定每个交互动作检测候选框对应的交互动作类别。解决了目前的动作交互动作检测方法只能检测出当前图像场景中人与物体的交互动作,无法检测出人、工具与物体之间的三元交互动作的问题。
-
公开(公告)号:CN114863937B
公开(公告)日:2024-06-18
申请号:CN202210536031.3
申请日:2022-05-17
Applicant: 武汉工程大学
Abstract: 本发明提供了基于深度迁移学习与XGBoost的混合鸟鸣识别方法,通过计算log‑Mel频谱图的一阶差分系数和二阶差分系数,反映鸟鸣信号的变化过程,在保留物种有效信息的同时减少环境噪声等无关因素的影响,提升了识别鸟类物种的准确率;减少了环境背景噪声等无关因素的影响,有效识别了自然场景下的多种鸟类物种。本发明采用深度迁移学习微调VGG16模型构建特征提取器,提升了少样本训练数据下深度卷积神经网络的泛化能力,减少了参数训练,提升了运行效率。本发明将鸟鸣信号更准确的映射为鸟类物种,对自然环境中多种鸟类鸣声均具有良好的识别性能。
-
公开(公告)号:CN113610778B
公开(公告)日:2024-03-26
申请号:CN202110817766.9
申请日:2021-07-20
Applicant: 武汉工程大学
IPC: G06T7/00 , G06T7/11 , G06V10/764 , G06V10/44 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明公开了一种基于语义分割的桥梁表面裂纹检测方法和系统,包括:采集桥梁裂纹图像并对图像进行像素级语义标注,制作桥梁裂纹分割数据集;构建基于特征编码和解码的语义分割网络并利用基于十字交叉注意力的跳跃连接用于联合高级语义和低级的细粒度表层信息;在一般分类损失的基础上利用一种类别一致性损失,使网络将图像中的每个像素映射到特征空间中的n维向量,以使属于该类别的像素的特征向量则靠近,不同类别的像素的特征向量远离;在得到分割产生的裂纹图像后提取裂纹形态学骨架,并进行裂纹短枝消去以计算裂纹长度;基于骨架方向上的图像裂纹计算宽度像素。本发明能实现桥梁裂纹的快速精确分割,并使得分割出的裂纹图像结构更加的完整。
-
公开(公告)号:CN117315224A
公开(公告)日:2023-12-29
申请号:CN202311147316.9
申请日:2023-09-06
IPC: G06V10/25 , G06V10/764 , G06V10/766
Abstract: 本发明提供一种改进边界框回归损失的目标检测方法、系统及介质,涉及计算机视觉技术领域;方法包括:步骤S1,预先对目标物体的真实边界框和类别进行标注,构成训练数据集;步骤S2,将训练数据集中的图片输入训练后的检测模型中进行预测,得到预测类别和预测边界框;步骤S3,构建损失函数,通过损失函数对定位损失进行计算;步骤S4,根据定位损失对检测模型进行优化,并将训练后的检测模型替换为优化检测模型,重复步骤S2‑S4,直至达到预设训练次数;步骤S5,将待检测图片输入训练后的优化检测模型进行预测,得到目标边界框位置和目标分类。通过构建边界框回归损失使预测框拟合度更高,从而优化检测模型,加快收敛,提升检测的精度。
-
公开(公告)号:CN113610126B
公开(公告)日:2023-12-05
申请号:CN202110838933.8
申请日:2021-07-23
Applicant: 武汉工程大学
IPC: G06F18/2415 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了一种基于多目标检测模型无标签的知识蒸馏方法及存储介质,属于计算机视觉目标检测领域,该方法包括以下步骤:S1、获取多类别数据集;S2、利用不同类别的数据集训练出不同的教师网络,将无标签的图片输入至学生网络和多个教师网络,引导学生网络训练;学生网络的类别为多个教师网络类别的组合;S3、设计全局蒸馏损失以及自适应损失,平衡多个不同教师网络和学生网络之间的蒸馏损失,平衡不同教师网络之间的语言特性,优化学生网络训练过程。本发明能够有效提炼出不同教师网络中的多类别信息,进行完整类别的目标检测,并且在单一数据集的制定类别上与教师网络持平甚至超越。
-
公开(公告)号:CN117036985A
公开(公告)日:2023-11-10
申请号:CN202311299444.5
申请日:2023-10-09
Applicant: 武汉工程大学
IPC: G06V20/13 , G06V10/762 , G06V10/82 , G06N3/0464
Abstract: 本发明涉及一种面向视频卫星图像的小目标检测方法及装置,包括:获取待检测图像,对所述待检测图像进行预处理,得到目标图像;获取预设的标注框,基于K‑means聚类算法,利用所述标注框自适应计算目标图像的锚框;基于YOLOv5模型,构建边缘感知模块;其中边缘感知模块由通道注意力模块和空间注意力模块组成;为所述边缘感知模块构建边角对齐交并比损失函数;对所述锚框进行调整得到目标图像的预测框,基于所述交并比损失函数,通过具有预测框的目标图像对所述边缘感知模块进行训练,得到小目标检测模型;将所述待检测图像输入所述小目标检测模型,得到待检测图像的小目标检测结果。
-
公开(公告)号:CN113657225B
公开(公告)日:2023-09-26
申请号:CN202110898055.9
申请日:2021-08-05
Applicant: 武汉工程大学 , 武汉烽火技术服务有限公司
IPC: G06V10/82 , G06V10/80 , G06V10/52 , G06V10/764 , G06N3/0464 , G06N3/045 , G06N3/09
Abstract: 本发明提供一种目标检测方法,包括步骤:提取图像特征生成特征图;将特征图上采样,获得放大特征图;将放大特征图连接到类别预测头、宽高预测头和中心点偏移量预测头;在类别预测头中加入类别注意力网络,挖掘类内和类间的相距较远但语义相关的目标之间的有效信息;通过对真实目标框编码产生监督信息监督各预测头的训练;由各预测头输出的结果在待检测图像中框选识别对象并标记分类结果。本发明结合对目标类别作进一步判断的类别注意力和对边框回归的尺度自适应编码,使得网络在能关联类内和类间的特征,挖掘类内和类间的相距较远但语义相关的目标之间的有效信息的同时,还能根据检测目标的尺度变换进行更精准的框选,提升检测的准度和框选精度。
-
公开(公告)号:CN110751066B
公开(公告)日:2023-04-07
申请号:CN201910942713.2
申请日:2019-09-30
Applicant: 武汉工程大学
Abstract: 本发明涉及图像识别技术领域,提供了一种基于语义分割模型的图像状态识别方法、装置和图像识别设备,该方法包括:将插销锁图像输入销钉语义分割模型,通过销钉语义分割模型对插销锁图像进行分割后输出语义分割图;将语义分割图输入图像状态识别模型,通过图像状态识别模型识别语义分割图处于销钉缺陷状态或者销钉完整状态,避免使用销钉语义分割模型识别图像处于销钉缺陷状态或者销钉完整状态,语义分割图支持图像状态识别模型快速、准确地识别语义分割图像处于销钉缺陷状态或者销钉完整状态,提高了前述销钉缺陷状态的识别率,有助于缩小前述销钉缺陷状态的识别率与前述销钉完整状态的识别率之间的差距。
-
公开(公告)号:CN111531580B
公开(公告)日:2023-02-07
申请号:CN202010342977.7
申请日:2020-04-27
Applicant: 武汉工程大学
Abstract: 本发明提供一种基于视觉的多工业机器人故障检测方法及系统,其中,一种基于视觉的多工业机器人故障检测方法,包括以下步骤,S1:采集多工业机器人标准作业视频,建立多个单工业机器人标准作业模式视频帧序列A13,执行S2;S2:实时采集多工业机器人作业视频,建立多个单工业机器人实时作业视频帧序列A22,执行S3;S3:将单工业机器人实时动作图像与对应的单工业机器人标准作业模式视频帧序列A13中的图像进行匹配,采用两阶段法检测单工业机器人是否动作异常,若是,执行S4,若否,执行S2;S4:控制该工业机器人急停。本发明具有采用非接触式的方式发现工业机器人本体突发故障,避免在人机协作时发生机器人伤人的安全事故、检测过程简单准确的优点。
-
-
-
-
-
-
-
-
-