-
公开(公告)号:CN109753949A
公开(公告)日:2019-05-14
申请号:CN201910097579.0
申请日:2019-01-31
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于深度学习的多视窗交通标志检测方法,首先通过仿射变换在不同的照明条件和方向上提供其他交通标志图片,然后利用扩充的数据集训练基于YOLO框架的交通标志检测模型,最后利用多视窗YOLO模型对输入图像进行分区域操作,对每个区域分别检测,并将检测结果进行融合,得到最终检测结果。本发明保证了需要进行交通标志检测的应用领域在进行交通标志检测时的准确性,不仅能提高交通安全性,同时也保证了交通运行效率,具有较高的研究意义。
-
公开(公告)号:CN109753949B
公开(公告)日:2022-08-12
申请号:CN201910097579.0
申请日:2019-01-31
Applicant: 南京邮电大学
IPC: G06V20/58 , G06V10/764 , G06K9/62
Abstract: 本发明公开了一种基于深度学习的多视窗交通标志检测方法,首先通过仿射变换在不同的照明条件和方向上提供其他交通标志图片,然后利用扩充的数据集训练基于YOLO框架的交通标志检测模型,最后利用多视窗YOLO模型对输入图像进行分区域操作,对每个区域分别检测,并将检测结果进行融合,得到最终检测结果。本发明保证了需要进行交通标志检测的应用领域在进行交通标志检测时的准确性,不仅能提高交通安全性,同时也保证了交通运行效率,具有较高的研究意义。
-
公开(公告)号:CN109635793A
公开(公告)日:2019-04-16
申请号:CN201910097865.7
申请日:2019-01-31
Applicant: 南京邮电大学
CPC classification number: G06K9/00362 , G06N3/0454 , G06N3/08
Abstract: 本发明公开了一种基于卷积神经网络的无人驾驶行人轨迹预测方法,包括处理样本数据、获取输入信息序列、构建并优化网络、测试及评估最优模型。将无人驾驶车辆上的视觉传感器采集到的实时视频,分割成以帧为单位的图像作为样本数据,将样本数据中即将通过斑马线的目标人群划分成三类,从样本中获取行人位置‑比例信息序列、行人骨架信息序列、视觉传感器自身运动序列,再将信息序列输入卷积神经网络进行训练,得到初步的预测模型,经过测试和评估,最终输出预测轨迹和动作类别。本发明采用卷积神经网络进行无人驾驶行人轨迹预测,可以有效降低无人驾驶车辆在道路行驶过程中碰撞行人发生的概率。
-
公开(公告)号:CN112818783B
公开(公告)日:2022-08-02
申请号:CN202110086415.5
申请日:2021-01-22
Applicant: 南京邮电大学
IPC: G06V20/58 , G06K9/62 , G06N3/04 , G06N3/08 , G06V10/774 , G06V10/764
Abstract: 本发明公开了一种基于交通标志目标检测器改进的对抗样本生成方法,先通过随机RGB图像生成算法生成一个初始对抗样本;再通过目标检测器对原始训练样本进行训练,获取各原始训练样本上交通标志的检测框;然后对初始对抗样本进行一系列数据增强操作附加在原始训练样本上形成对抗训练样本,计算交通标志仍然被检测到的置信度;最后通过置信度来衡量对抗样本性能的损失函数。目前由于大多数的对抗方法主要的对抗目标针是大目标物体,而对小目标物体的对抗效果较差,本发明融合了一个新的损失函数来进一步优化对抗目标以应对该问题,该损失函数通过最小化目标检测器所预测的视觉距离和真实的视觉距离之间的偏差,从而来提高对抗样本的鲁棒性。
-
公开(公告)号:CN112818783A
公开(公告)日:2021-05-18
申请号:CN202110086415.5
申请日:2021-01-22
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于交通标志目标检测器改进的对抗样本生成方法,先通过随机RGB图像生成算法生成一个初始对抗样本;再通过目标检测器对原始训练样本进行训练,获取各原始训练样本上交通标志的检测框;然后对初始对抗样本进行一系列数据增强操作附加在原始训练样本上形成对抗训练样本,计算交通标志仍然被检测到的置信度;最后通过置信度来衡量对抗样本性能的损失函数。目前由于大多数的对抗方法主要的对抗目标针是大目标物体,而对小目标物体的对抗效果较差,本发明融合了一个新的损失函数来进一步优化对抗目标以应对该问题,该损失函数通过最小化目标检测器所预测的视觉距离和真实的视觉距离之间的偏差,从而来提高对抗样本的鲁棒性。
-
公开(公告)号:CN113537467A
公开(公告)日:2021-10-22
申请号:CN202110799668.7
申请日:2021-07-15
Applicant: 南京邮电大学
Abstract: 本发明是一种基于WGAN‑GP的对抗扰动图像生成方法。该方法包括如下步骤:利用特征提取器从目标网络模型中获取其中一个卷积层的特征向量,并将其作为先验信息;生成器将原始图像的特征向量和噪声向量作为级联向量输入到生成器后生成对抗扰动图像;判别器判断生成器生成的对抗扰动图像的类别是否符合训练集中的类别描述信息;目标神经网络模型利用误判损失函数来指导生成器生成的对抗扰动图像的类别更接近目标标签的类别。本发明提升了生成对抗扰动图像的隐蔽性和图像质量,利用目标网络模型的特征提取器,使GAN网络生成器从学习原始图像的特征转换为学习目标特征,以减少训练开销和提高对抗成功率。
-
公开(公告)号:CN113537467B
公开(公告)日:2023-08-18
申请号:CN202110799668.7
申请日:2021-07-15
Applicant: 南京邮电大学
IPC: G06N3/0464 , G06N3/045 , G06N3/0475 , G06N3/094 , G06V10/774
Abstract: 本发明是一种基于WGAN‑GP的对抗扰动图像生成方法。该方法包括如下步骤:利用特征提取器从目标网络模型中获取其中一个卷积层的特征向量,并将其作为先验信息;生成器将原始图像的特征向量和噪声向量作为级联向量输入到生成器后生成对抗扰动图像;判别器判断生成器生成的对抗扰动图像的类别是否符合训练集中的类别描述信息;目标神经网络模型利用误判损失函数来指导生成器生成的对抗扰动图像的类别更接近目标标签的类别。本发明提升了生成对抗扰动图像的隐蔽性和图像质量,利用目标网络模型的特征提取器,使GAN网络生成器从学习原始图像的特征转换为学习目标特征,以减少训练开销和提高对抗成功率。
-
-
-
-
-
-