-
公开(公告)号:CN111552269B
公开(公告)日:2021-05-28
申请号:CN202010343394.6
申请日:2020-04-27
Applicant: 武汉工程大学
Abstract: 本发明提供一种基于姿态估计的多工业机器人安全性检测方法及系统,其中方法包括:S1:采集多工业机器人标准作业视频,并建立多个单工业机器人动作模式姿态向量序列A14,单工业机器人动作模式姿态向量序列A14中包含多个单工业机器人姿态向量A13,执行S2;S2:实时采集多工业机器人的作业视频,获取多个单工业机器人姿态向量A23,执行S3;S3:将任一单工业机器人姿态向量A23,记为h1,与对应的单工业机器人动作模式姿态向量序列A14进行匹配,若匹配成功,则执行S2,若匹配失败,则检测到异常动作,控制工业机器人急停,本方法检测过程简单准确且成本较低,而且可以同时检测多个工业机器人的工作状态。
-
公开(公告)号:CN112732967A
公开(公告)日:2021-04-30
申请号:CN202110023565.1
申请日:2021-01-08
Applicant: 武汉工程大学 , 武汉引行科技有限公司
Abstract: 本发明涉及一种图像自动标注方法、系统及电子设备,接收待标记图像,将待标记图像输入到自动图像标注模型中,以使所述自动图像标注模型中的第二主干卷积神经网络、第二卷积注意力网络、第二多尺度特征融合分支网络依次对所述待标记图像进行处理,得到第K级第三图像特征图,并使所述自动图像标注模型中的第二标签预测网络对所述第K级第三图像特征图进行处理,得到所述待标记图像的语义标签,其中K为正整数。利用自动图像标注模型对待标记图像进行处理,可以方便快捷地对待标记图像进行标注,还可以在进行图像标注时能够提供不同比例的图像特征来对图像进行标注,从而使得对图像的注释更为全面。
-
公开(公告)号:CN112070670A
公开(公告)日:2020-12-11
申请号:CN202010915896.1
申请日:2020-09-03
Applicant: 武汉工程大学
Abstract: 本发明公开了一种基于全局‑局部分离注意力机制的人脸超分辨率方法及系统,将高分辨率人脸图像下采样至目标低分辨率人脸图像;将目标低分辨率图像进行分块操作,分出相互重叠的图像块后,提取粗糙的脸部特征图;构建分离注意力网络作为精细特征提取器,将粗糙的脸部特征输入分离注意力网络获得精细的脸部特征图,分离注意力网络包含若干个全局‑局部分离注意力组,每个全局‑局部分离注意力组产生两路局部注意力并用一个全局注意力模块融合不同的局部注意力,使局部注意力跨特征组交互,实现网络的全局注意力;将得到的人脸精细特征图进行上采样;将上采样后的人脸特征图重建成目标的高分辨率人脸图像。本发明能生成更高质量的人脸高分辨率图像。
-
公开(公告)号:CN111531580A
公开(公告)日:2020-08-14
申请号:CN202010342977.7
申请日:2020-04-27
Applicant: 武汉工程大学
Abstract: 本发明提供一种基于视觉的多工业机器人故障检测方法及系统,其中,一种基于视觉的多工业机器人故障检测方法,包括以下步骤,S1:采集多工业机器人标准作业视频,建立多个单工业机器人标准作业模式视频帧序列A13,执行S2;S2:实时采集多工业机器人作业视频,建立多个单工业机器人实时作业视频帧序列A22,执行S3;S3:将单工业机器人实时动作图像与对应的单工业机器人标准作业模式视频帧序列A13中的图像进行匹配,采用两阶段法检测单工业机器人是否动作异常,若是,执行S4,若否,执行S2;S4:控制该工业机器人急停。本发明具有采用非接触式的方式发现工业机器人本体突发故障,避免在人机协作时发生机器人伤人的安全事故、检测过程简单准确的优点。
-
公开(公告)号:CN110490236A
公开(公告)日:2019-11-22
申请号:CN201910690299.0
申请日:2019-07-29
Applicant: 武汉工程大学 , 武汉引行科技有限公司 , 武汉创逸灵科技有限公司
Abstract: 本发明涉及一种基于神经网络的自动图像标注方法、系统、装置和介质,利用预先训练好的卷积神经网络模型提取实验数据集的图像特征;根据图像特征,在训练集中计算得到待标注图像的邻域图像集和对应的第一标签域;构建第一标签域与训练集对应的第二标签域之间的标签语义关联模型,根据标签语义关联模型,在第二标签域中计算得到与每个第一标签相关联的第三标签域;计算待标注图像与每个邻域图像之间的相似度,根据所有相似度得到每个第一标签成为目标标签的第一概率,并根据所有第一概率和标签语义关联模型得到每个第三标签成为目标标签的第二概率;根据所有相似度、所有第一概率和所有第二概率,得到目标标签,并根据目标标签完成标注。
-
公开(公告)号:CN109992761A
公开(公告)日:2019-07-09
申请号:CN201910223558.9
申请日:2019-03-22
Applicant: 武汉工程大学 , 上海华川环保科技有限公司
Abstract: 本发明公开了一种基于规则的自适应文本信息提取方法及软件存储器,该方法包括以下步骤:对专业领域的文本对象构建文本信息提取的规则,并将规则总结在模版中。模版规则按树状顺序分级处理,构成文本模版,模板均为四层结构,包括段、行、句、词;对待提取的文本对象进行统计分析,预设具有代表性的关键词,关键词由相关词与无关词构成;使用构建的模版对待提取的文本进行信息提取,按照模版四层结构顺序,通过关键词进行文本匹配;对于模版里的每个层级,当出现多个匹配结果时,用关键词进行过滤,精确定位目标信息;输出包含关键词的文本提取结果。本发明能够自动适应文本内容、结构的变化,高效准确的提取目标文本信息。
-
公开(公告)号:CN105354841B
公开(公告)日:2019-02-01
申请号:CN201510687565.6
申请日:2015-10-21
Applicant: 武汉工程大学
Abstract: 本发明公开了一种快速遥感影像匹配方法及系统,该方法包括以下步骤:S1、获取基准影像和待匹配影像并对其进行粗匹配,分别对两幅影像构建积分直方图,根据待匹配影像与基准影像积分直方图的相似度确定候选匹配区域;S2、对待匹配影像和候选匹配区域进行精匹配,具体步骤为:S21、在待匹配影像和候选匹配区域中进行特征提取,并构建特征点匹配集合;S22、根据特征点的匹配集合构建概率表达模型和特征点映射的形式化表达;S23、根据最大期望算法剔除误匹配,计算得出精确匹配模型,并通过精确匹配模型得到影像的精确匹配区域。本发明大大缩短了影像匹配的过程,提高了匹配的精度和算法的鲁棒性。
-
公开(公告)号:CN104657718B
公开(公告)日:2018-12-14
申请号:CN201510078423.X
申请日:2015-02-13
Applicant: 武汉工程大学
Abstract: 本发明公开了一种基于人脸图像特征极限学习机的人脸识别方法,该方法包括以下步骤:对原始图像进行预处理;对样本进行主成分分析得到特征脸谱,将图像投影到特征域;然后利用极限学习机算法建立人脸图像和人脸标签之间的映射关系;最后利用极限学习机推导输入人脸图像的标签属性。本方法利用了极限学习机的优点,降低了传统神经网络的参数估计和优化的复杂度,进一步缩短了训练时间和提高了人脸图像的识别率。
-
公开(公告)号:CN105608006B
公开(公告)日:2018-06-08
申请号:CN201510982321.0
申请日:2015-12-22
Applicant: 武汉工程大学
IPC: G06F11/36
Abstract: 本发明公开了一种基于概率模型的程序错误检测方法及系统,该方法包括以下步骤:S1、获取概率模型和待检测程序,从待检测程序中提取待检测的函数调用序列集合;S2、获取单个待检测的函数调用序列,求解最相似的函数调用序列集合,并计算联合概率;S3、根据相似集合对该待检测序列进行检测并生成修复方案;S4、完成该待检测序列的检测和修复后,记录检测到的各个错误信息及修复方案;S5、对待检测集合中的所有待检测序列检测完毕后,输出程序错误报告。本发明无需处理概率模型转换到确定性模型时的阈值选择问题,能够快速的检测程序中的错误,且检测准确率高。
-
公开(公告)号:CN107507223A
公开(公告)日:2017-12-22
申请号:CN201710632021.9
申请日:2017-07-28
Applicant: 武汉工程大学
CPC classification number: G06T7/246 , G06K9/6211 , G06K9/6223 , G06T5/002 , G06T7/11 , G06T7/136 , G06T7/194 , G06T7/251 , G06T2207/10016 , G06T2207/20024
Abstract: 本发明公开了一种动态环境下基于多特征聚类匹配的目标跟踪方法,该跟踪方法在动态环境下采用结合三帧差分法和背景差分法为自适应目标检测方法,为跟踪系统设计一个独立的前景检测模块,能够最大限度的提取出目标,也能对噪声的抵抗性较强,并结合特征聚类方法并进行消除错误匹配的特征点完成匹配跟踪。
-
-
-
-
-
-
-
-
-