-
公开(公告)号:CN104637060A
公开(公告)日:2015-05-20
申请号:CN201510078434.8
申请日:2015-02-13
Applicant: 武汉工程大学
CPC classification number: G06T5/002
Abstract: 本发明公开了一种基于邻域主成分分析-拉普拉斯的图像分割方法,该方法对原始图像进行主成分分析,得到每个像素的特征向量,提取图像的主要成分,有效的抑制了噪声;然后,用拉普拉斯算子对图像进行边缘检测,从而实现对图像的分割。与传统的Sobel算子和LOG算子分割算法相比,该方法通过对图像像素进行主成分分析,来估计去噪过程中的参数值,而不依赖于经验值,能有效的降低噪声对图像的干扰,简化了计算复杂度。实验结果表明,该方法能够有效的改善图像的分割效果,在准确性和稳健性上具有较强的优越性。
-
公开(公告)号:CN115221458B
公开(公告)日:2025-04-18
申请号:CN202210610119.5
申请日:2022-05-31
Applicant: 武汉工程大学
Abstract: 本发明公开了一种MIMO发射方向图的直接波形设计方法、装置、设备及介质,涉及雷达技术领域,方法包括:获取发射信号的预编码矩阵和发射阵列的导向矢量,基于发射信号的预编码矩阵和发射阵列的导向矢量获取初始发射信号矩阵向量化算子、初始旁瓣区域功率数据和初始主瓣区域功率数据,基于获得的数据构建初始优化模型,初始优化模型包括原目标函数和原约束条件,原目标函数用于表征初始旁瓣区域功率数据和初始主瓣区域功率数据之间的关系,原约束条件包括用于限制旁瓣区域功率和的旁瓣约束、用于限制主瓣区域功率和的主瓣约束、用于限制发射天线的发射功率的总功率约束,通过构建辅助变量对模型进行处理,再利用ADMM求解,实现目标发射方向图的绘制。
-
公开(公告)号:CN111823212B
公开(公告)日:2024-11-15
申请号:CN202010698942.7
申请日:2020-07-20
Applicant: 武汉工程大学 , 武汉引行科技有限公司
Abstract: 本发明公开了一种垃圾瓶清捡机器人及控制方法,包括底板、中间层隔板、外壳和机械臂,还包括有微型主机、开发板、双目视觉摄像头、激光雷达,机器人通过微型主机作为高位机,开发板作为低位机进行控制,通过微型主机包括的神经网络芯片识别垃圾瓶,然后控制手眼系统等设备进行清捡。机器人通过激光雷达和GPS模块等设备生成地图、自动巡检并规避障碍,还可以通过远程控制器对其进行远程操作和获取各类数据。本发明提供的机器人可用于垃圾瓶的自动清捡,其优点在于:实现垃圾瓶的自动清捡和分类,降低垃圾瓶回收难度,美化城市环境,并节约劳动力和清洁的成本。
-
公开(公告)号:CN111531580B
公开(公告)日:2023-02-07
申请号:CN202010342977.7
申请日:2020-04-27
Applicant: 武汉工程大学
Abstract: 本发明提供一种基于视觉的多工业机器人故障检测方法及系统,其中,一种基于视觉的多工业机器人故障检测方法,包括以下步骤,S1:采集多工业机器人标准作业视频,建立多个单工业机器人标准作业模式视频帧序列A13,执行S2;S2:实时采集多工业机器人作业视频,建立多个单工业机器人实时作业视频帧序列A22,执行S3;S3:将单工业机器人实时动作图像与对应的单工业机器人标准作业模式视频帧序列A13中的图像进行匹配,采用两阶段法检测单工业机器人是否动作异常,若是,执行S4,若否,执行S2;S4:控制该工业机器人急停。本发明具有采用非接触式的方式发现工业机器人本体突发故障,避免在人机协作时发生机器人伤人的安全事故、检测过程简单准确的优点。
-
公开(公告)号:CN115330997A
公开(公告)日:2022-11-11
申请号:CN202210742355.2
申请日:2022-06-27
Applicant: 武汉工程大学 , 武汉引行科技有限公司
IPC: G06V10/25 , G06N3/04 , G06N3/08 , G06V10/774 , G06V10/82
Abstract: 本发明提供一种基于YOLOv4神经网络的控制箱装配缺陷检测方法、装置及存储介质,包括如下步骤:构建多个类别零部件的样本训练集和样本测试集,基于YOLOv4神经网络构建初始卷积神经网络检测模型,并通过样本训练集进行训练,通过样本测试集测试卷积神经网络检测模型;对正确装配控制箱内多个类别零部件进行图像拍摄,并从零部件图像得到标准参数;对待检测控制箱内多个类别零部件进行图像拍摄,得到待检测零部件图像;将待检测零部件图像输入最终的卷积神经网络检测模型,输出待检测零部件图像的检测参数,通过标准参数校验检测参数,得到待检测控制箱是否存在装配缺陷的检测结果。本发明能够在复杂环境下快速、高效地完成控制箱装配缺陷检测任务。
-
公开(公告)号:CN115239643A
公开(公告)日:2022-10-25
申请号:CN202210781655.1
申请日:2022-07-04
Applicant: 武汉工程大学 , 武汉引行科技有限公司
Abstract: 本发明提供一种基于G‑YOLO神经网络的工业零件检测方法、装置及存储介质,通过拍摄设备对工业零件进行拍摄,并制作工业零件初始数据集,构建样本训练集和样本测试集,基于G‑YOLO神经网络构建初始G‑YOLO工业零件检测模型,并通过预处理后的样本训练集和样本测试集分别对初始G‑YOLO工业零件检测模型进行模型训练和性能测试,得到G‑YOLO工业零件检测模型,G‑YOLO工业零件检测模型泛化能力强,可以满足多种工业零件的检测,解决了现有方法对于工业零件在复杂环境下检测速度慢的问题,极大提高检测速度,满足工业环境下的零件实时检测需求。
-
公开(公告)号:CN112732967B
公开(公告)日:2022-04-29
申请号:CN202110023565.1
申请日:2021-01-08
Applicant: 武汉工程大学 , 武汉引行科技有限公司
Abstract: 本发明涉及一种图像自动标注方法、系统及电子设备,接收待标记图像,将待标记图像输入到自动图像标注模型中,以使所述自动图像标注模型中的第二主干卷积神经网络、第二卷积注意力网络、第二多尺度特征融合分支网络依次对所述待标记图像进行处理,得到第K级第三图像特征图,并使所述自动图像标注模型中的第二标签预测网络对所述第K级第三图像特征图进行处理,得到所述待标记图像的语义标签,其中K为正整数。利用自动图像标注模型对待标记图像进行处理,可以方便快捷地对待标记图像进行标注,还可以在进行图像标注时能够提供不同比例的图像特征来对图像进行标注,从而使得对图像的注释更为全面。
-
公开(公告)号:CN114219742A
公开(公告)日:2022-03-22
申请号:CN202111055117.6
申请日:2021-09-09
Applicant: 武汉工程大学 , 武汉逸锦科技有限公司
Abstract: 本发明提供了一种联合流形约束和FB‑GAN的人脸变形方法和系统,通过使用生成对抗神经网络设计出端到端的人脸图像拼接对抗网络FB‑GAN,实现了在人脸变形过程中生成高分辨率的人脸图像的功能。本发明通过人脸变形算法生成高分辨率的人脸图像,解决了传统变形中人脸嘴巴从闭合到张开所导致的嘴巴“扭曲”或“空洞”问题。本发明解决了人脸拼接问题中的颜色差异较大而导致的拼接效果较差的问题,提高了人脸生成图像的真实性。
-
公开(公告)号:CN111531581A
公开(公告)日:2020-08-14
申请号:CN202010342989.X
申请日:2020-04-27
Applicant: 武汉工程大学
Abstract: 本发明提供一种基于视觉的工业机器人故障动作检测方法及系统,其中,一种基于视觉的工业机器人故障动作检测方法,包括以下步骤,S1:采集工业机器人标准作业视频,建立工业机器人标准作业模式视频帧序列;S2:实时采集工业机器人作业图像,获取工业机器人实时动作图像;S3:将工业机器人实时动作图像与工业机器人标准作业模式视频帧序列进行匹配,判断工业机器人标准作业模式视频帧序列中是否存在与工业机器人实时动作图像近似匹配的图像,若是,执行S2,若否,执行S4;S4:控制工业机器人急停。本发明具有采用非接触式的方式发现工业机器人本体突发故障,避免在人机协作时发生机器人伤人的安全事故、检测过程简单准确的优点。
-
公开(公告)号:CN111445519A
公开(公告)日:2020-07-24
申请号:CN202010231968.0
申请日:2020-03-27
Applicant: 武汉工程大学
IPC: G06T7/70
Abstract: 本发明提供一种工业机器人三维姿态估计方法、装置及存储介质,方法包括:通过预设的视觉传感器得到工业机器人的二维图像;对二维图像进行二维姿态估计处理,得到二维姿态矩阵;通过预设的测距传感器得到工业机器人深度信息;根据所述工业机器人深度信息对所述二维姿态矩阵进行世界坐标系转换,得到工业机器人三维姿态矩阵,将所述工业机器人三维姿态矩阵作为工业机器人三维姿态信息。本发明可实时估计并输出工业机器人三维姿态,为基于工业机器人姿态的相关应用提供了有效的技术手段,为工业机器人误动作检测和保障工业机器人安全奠定了技术基础,相较于二维姿态的估计结果,本发明更加准确,在工业机器人误动作检测等应用中可减少误报率。
-
-
-
-
-
-
-
-
-