-
公开(公告)号:CN113537467A
公开(公告)日:2021-10-22
申请号:CN202110799668.7
申请日:2021-07-15
Applicant: 南京邮电大学
Abstract: 本发明是一种基于WGAN‑GP的对抗扰动图像生成方法。该方法包括如下步骤:利用特征提取器从目标网络模型中获取其中一个卷积层的特征向量,并将其作为先验信息;生成器将原始图像的特征向量和噪声向量作为级联向量输入到生成器后生成对抗扰动图像;判别器判断生成器生成的对抗扰动图像的类别是否符合训练集中的类别描述信息;目标神经网络模型利用误判损失函数来指导生成器生成的对抗扰动图像的类别更接近目标标签的类别。本发明提升了生成对抗扰动图像的隐蔽性和图像质量,利用目标网络模型的特征提取器,使GAN网络生成器从学习原始图像的特征转换为学习目标特征,以减少训练开销和提高对抗成功率。
-
公开(公告)号:CN109753949B
公开(公告)日:2022-08-12
申请号:CN201910097579.0
申请日:2019-01-31
Applicant: 南京邮电大学
IPC: G06V20/58 , G06V10/764 , G06K9/62
Abstract: 本发明公开了一种基于深度学习的多视窗交通标志检测方法,首先通过仿射变换在不同的照明条件和方向上提供其他交通标志图片,然后利用扩充的数据集训练基于YOLO框架的交通标志检测模型,最后利用多视窗YOLO模型对输入图像进行分区域操作,对每个区域分别检测,并将检测结果进行融合,得到最终检测结果。本发明保证了需要进行交通标志检测的应用领域在进行交通标志检测时的准确性,不仅能提高交通安全性,同时也保证了交通运行效率,具有较高的研究意义。
-
公开(公告)号:CN109710512A
公开(公告)日:2019-05-03
申请号:CN201811485235.9
申请日:2018-12-06
Applicant: 南京邮电大学
Abstract: 本发明揭示了一种基于测地线流核的神经网络软件缺陷预测方法,包括如下步骤:S1、将数据集降维到对应的子空间中,并确定最优的子空间维度;S2、利用数据集降维得到的特征表示构建测地线流;S3、计算测地线流核,根据测地线流核计算得到源数据和目标数据的变换矩阵及特征空间;S4、根据得到的特征空间对神经网络分类器进行训练,最终得到预测结果。本发明将迁移学习中的测地线流核和神经网络分类器相结合,通过将源数据和目标数据投影到具有相同分布的子空间中的方式,解决了不同数据集上的数据分布不同以及数据量大时计算效率低下的问题,进而实现了跨项目的软件缺陷预测。
-
公开(公告)号:CN109635793A
公开(公告)日:2019-04-16
申请号:CN201910097865.7
申请日:2019-01-31
Applicant: 南京邮电大学
CPC classification number: G06K9/00362 , G06N3/0454 , G06N3/08
Abstract: 本发明公开了一种基于卷积神经网络的无人驾驶行人轨迹预测方法,包括处理样本数据、获取输入信息序列、构建并优化网络、测试及评估最优模型。将无人驾驶车辆上的视觉传感器采集到的实时视频,分割成以帧为单位的图像作为样本数据,将样本数据中即将通过斑马线的目标人群划分成三类,从样本中获取行人位置‑比例信息序列、行人骨架信息序列、视觉传感器自身运动序列,再将信息序列输入卷积神经网络进行训练,得到初步的预测模型,经过测试和评估,最终输出预测轨迹和动作类别。本发明采用卷积神经网络进行无人驾驶行人轨迹预测,可以有效降低无人驾驶车辆在道路行驶过程中碰撞行人发生的概率。
-
公开(公告)号:CN109753949A
公开(公告)日:2019-05-14
申请号:CN201910097579.0
申请日:2019-01-31
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于深度学习的多视窗交通标志检测方法,首先通过仿射变换在不同的照明条件和方向上提供其他交通标志图片,然后利用扩充的数据集训练基于YOLO框架的交通标志检测模型,最后利用多视窗YOLO模型对输入图像进行分区域操作,对每个区域分别检测,并将检测结果进行融合,得到最终检测结果。本发明保证了需要进行交通标志检测的应用领域在进行交通标志检测时的准确性,不仅能提高交通安全性,同时也保证了交通运行效率,具有较高的研究意义。
-
公开(公告)号:CN113537467B
公开(公告)日:2023-08-18
申请号:CN202110799668.7
申请日:2021-07-15
Applicant: 南京邮电大学
IPC: G06N3/0464 , G06N3/045 , G06N3/0475 , G06N3/094 , G06V10/774
Abstract: 本发明是一种基于WGAN‑GP的对抗扰动图像生成方法。该方法包括如下步骤:利用特征提取器从目标网络模型中获取其中一个卷积层的特征向量,并将其作为先验信息;生成器将原始图像的特征向量和噪声向量作为级联向量输入到生成器后生成对抗扰动图像;判别器判断生成器生成的对抗扰动图像的类别是否符合训练集中的类别描述信息;目标神经网络模型利用误判损失函数来指导生成器生成的对抗扰动图像的类别更接近目标标签的类别。本发明提升了生成对抗扰动图像的隐蔽性和图像质量,利用目标网络模型的特征提取器,使GAN网络生成器从学习原始图像的特征转换为学习目标特征,以减少训练开销和提高对抗成功率。
-
-
-
-
-