-
公开(公告)号:CN109949317A
公开(公告)日:2019-06-28
申请号:CN201910168475.4
申请日:2019-03-06
Applicant: 东南大学
Abstract: 本发明公开了一种基于逐步对抗学习的半监督图像实例分割方法,包括步骤:1、构建Mask R-CNN实例分割模型;2、基于DCGAN训练Mask R-CNN中的FPN;3、采用标注数据对Mask R-CNN中的其他模块进行初步训练;4、构建判别卷积网络,与Mask R-CNN构成对抗学习网络,通过对抗训练,优化对抗学习网络的参数;5、将判别卷积网络的输出反馈至Mask R-CNN,对实例分割模型进行再训练;6、利用实例分割模型对待分割图像进行分割。该方法利用仅有部分标注图像的样本集进行模型训练,减少了处理样本的工作量,且能够获得较高精确度的分割模型。
-
公开(公告)号:CN109949317B
公开(公告)日:2020-12-11
申请号:CN201910168475.4
申请日:2019-03-06
Applicant: 东南大学
Abstract: 本发明公开了一种基于逐步对抗学习的半监督图像实例分割方法,包括步骤:1、构建Mask R‑CNN实例分割模型;2、基于DCGAN训练Mask R‑CNN中的FPN;3、采用标注数据对Mask R‑CNN中的其他模块进行初步训练;4、构建判别卷积网络,与Mask R‑CNN构成对抗学习网络,通过对抗训练,优化对抗学习网络的参数;5、将判别卷积网络的输出反馈至Mask R‑CNN,对实例分割模型进行再训练;6、利用实例分割模型对待分割图像进行分割。该方法利用仅有部分标注图像的样本集进行模型训练,减少了处理样本的工作量,且能够获得较高精确度的分割模型。
-
公开(公告)号:CN109949316B
公开(公告)日:2020-10-27
申请号:CN201910156558.1
申请日:2019-03-01
Applicant: 东南大学
Abstract: 本发明公开了一种基于RGB‑T融合的电网设备图像弱监督实例分割方法,包括如下步骤:1、采集多个电网设备成对的RGB图像和红外热像,对采集到的RGB图像进行处理,得到简单RGB图像;2、对简单RGB图像进行自动标注掩码;3、建立实例分割模型;构建简单训练集对实例分割模型进行训练;4、用训练好的实例分割模型对原始RGB图像进行分割预测,得到原始RGB图像的分割掩码标注;构建复杂训练集对实例分割模型进行训练,得到最终的电网设备实例分割模型;5、采集电网设备的RGB图像,输入最终电网设备实例分割模型,得到电网设备分割掩码。该方法可以实现对样本的自动标注,从而实现快速精确的电网设备实例分割。
-
公开(公告)号:CN109949316A
公开(公告)日:2019-06-28
申请号:CN201910156558.1
申请日:2019-03-01
Applicant: 东南大学
Abstract: 本发明公开了一种基于RGB-T融合的电网设备图像弱监督实例分割方法,包括如下步骤:1、采集多个电网设备成对的RGB图像和红外热像,对采集到的RGB图像进行处理,得到简单RGB图像;2、对简单RGB图像进行自动标注掩码;3、建立实例分割模型;构建简单训练集对实例分割模型进行训练;4、用训练好的实例分割模型对原始RGB图像进行分割预测,得到原始RGB图像的分割掩码标注;构建复杂训练集对实例分割模型进行训练,得到最终的电网设备实例分割模型;5、采集电网设备的RGB图像,输入最终电网设备实例分割模型,得到电网设备分割掩码。该方法可以实现对样本的自动标注,从而实现快速精确的电网设备实例分割。
-
公开(公告)号:CN108510062A
公开(公告)日:2018-09-07
申请号:CN201810268775.5
申请日:2018-03-29
Applicant: 东南大学
Abstract: 本发明涉及一种基于级联卷积神经网络的机器人非规则物体抓取位姿快速检测方法,首先构建位置-姿态由粗到细的级联式两阶段卷积神经网络模型,第一阶段采用基于区域的全卷积网络(R-FCN)实现抓取定位以及抓取角度的粗估计,第二阶段通过构造一种新的Angle-Net模型实现抓取角度精确计算;其次采集当前含待抓物体的场景图像作为待训练的原始现场图像样本,借助迁移学习机制对两阶段卷积神经网络模型进行训练,然后在线运行中将采集的每一帧单目彩色图像输入到级联式两阶段卷积神经网络模型,最后以所得抓取位置和姿态驱动机器人末端执行器进行物体抓取控制。本方法的抓取检测精度高,有效加快了机器人非规则物体抓取位姿的检测速度,提高了抓取姿态检测算法运行的实时性。
-
-
-
-