-
公开(公告)号:CN112560858A
公开(公告)日:2021-03-26
申请号:CN202011088800.5
申请日:2020-10-13
Applicant: 国家计算机网络与信息安全管理中心 , 北京工业大学
Abstract: 本发明公开了一种联合轻量化网络和个性化特征提取的字符图片检测及快速匹配方法,首先基于轻量化网络的深度学习方法对字符类图片进行分类,检测出字符类图片和非字符类图片,对于字符类图片进一步划分出复杂背景和简单背景两类字符类图片;进而针对两类字符图片,分别提取个性化特征表征图片内容;最后根据提取的个性化特征使用对应方法进行快速匹配,在保证准确率的同时,提高匹配速度。本发明可以有效降低匹配时间,可以综合、高效地利用字符类图片的内容信息,达到兼具鲁棒性和实时性的字符类图片匹配需求。
-
公开(公告)号:CN114118127B
公开(公告)日:2024-05-21
申请号:CN202111205085.3
申请日:2021-10-15
Applicant: 北京工业大学 , 国家计算机网络与信息安全管理中心
IPC: G06V20/50 , G06V10/80 , G06V10/82 , G06V10/40 , G06V10/764 , G06N3/0464
Abstract: 本申请实施例涉及一种视觉场景标志的检测与识别方法及装置,该方法包括:通过视觉场景标志合成算法确定目标识别类别的视觉场景标志训练数据;基于多尺度特征融合网络模型,对视觉场景标志训练数据进行视觉场景标志的检测与识别;其中,多尺度特征融合网络模型基于以下步骤获得:构建多尺度特征融合网络模型;基于视觉场景标志合成数据对多尺度特征融合网络模型进行第一训练,得到第一训练后的多尺度特征融合网络模型;基于预先标注的视觉场景标志对第一训练后的多尺度特征融合网络模型进行第二训练,得到训练好的多尺度特征融合网络模型。本申请实施例能够提升视觉场景标志检测与识别的精准度和速度。
-
公开(公告)号:CN112560858B
公开(公告)日:2023-04-07
申请号:CN202011088800.5
申请日:2020-10-13
Applicant: 国家计算机网络与信息安全管理中心 , 北京工业大学
IPC: G06V30/148 , G06V30/19 , G06V10/762
Abstract: 本发明公开了一种联合轻量化网络和个性化特征提取的字符图片检测及快速匹配方法,首先基于轻量化网络的深度学习方法对字符类图片进行分类,检测出字符类图片和非字符类图片,对于字符类图片进一步划分出复杂背景和简单背景两类字符类图片;进而针对两类字符图片,分别提取个性化特征表征图片内容;最后根据提取的个性化特征使用对应方法进行快速匹配,在保证准确率的同时,提高匹配速度。本发明可以有效降低匹配时间,可以综合、高效地利用字符类图片的内容信息,达到兼具鲁棒性和实时性的字符类图片匹配需求。
-
公开(公告)号:CN114118127A
公开(公告)日:2022-03-01
申请号:CN202111205085.3
申请日:2021-10-15
Applicant: 北京工业大学 , 国家计算机网络与信息安全管理中心
Abstract: 本申请实施例涉及一种视觉场景标志的检测与识别方法及装置,该方法包括:通过视觉场景标志合成算法确定目标识别类别的视觉场景标志训练数据;基于多尺度特征融合网络模型,对视觉场景标志训练数据进行视觉场景标志的检测与识别;其中,多尺度特征融合网络模型基于以下步骤获得:构建多尺度特征融合网络模型;基于视觉场景标志合成数据对多尺度特征融合网络模型进行第一训练,得到第一训练后的多尺度特征融合网络模型;基于预先标注的视觉场景标志对第一训练后的多尺度特征融合网络模型进行第二训练,得到训练好的多尺度特征融合网络模型。本申请实施例能够提升视觉场景标志检测与识别的精准度和速度。
-
公开(公告)号:CN119992265A
公开(公告)日:2025-05-13
申请号:CN202411892841.8
申请日:2024-12-20
Applicant: 北京工业大学
IPC: G06V10/80 , G06V10/40 , G06V10/774 , G06V10/82 , G06V10/764 , G06V20/58 , G06N3/044 , G06N3/048 , B60W50/00 , B60W60/00
Abstract: 本发明实施例提供一种自动驾驶目标检测系统及方法,属于目标检测技术领域。系统包括:相机网络分支,用于获取环视图像数据,并提取相机BEV特征;雷达网络分支,用于获取雷达点云数据,并提取雷达BEV特征;历史特征时序融合模块,用于基于相机BEV特征提取时序融合相机BEV特征,基于雷达BEV特征提取时序融合雷达BEV特征;雷达‑相机特征交互注意力模块,用于将时序融合相机BEV特征和时序融合雷达BEV特征进行交互,得到交互后的相机BEV特征;融合检测头网络,用于基于交互后的相机BEV特征和时序融合雷达BEV特征,得到自动驾驶目标检测结果。该系统用于解决严重遮挡障碍物的问题,提高自动驾驶中目标检测的效果。
-
公开(公告)号:CN114037011B
公开(公告)日:2024-05-28
申请号:CN202111316442.3
申请日:2021-11-08
Applicant: 北京工业大学
IPC: G06V10/764 , G06V10/774 , G06F17/16 , G06F17/18
Abstract: 本发明公开了一种中医舌色噪声标注样本的自动识别与清洗方法,通过对比预测标签与人工标注标签的概率关系,采用两种不同的筛选策略,实现对舌色噪声标注数据的准确、自动识别与清洗。本发明将人工标注标签称为硬标签,将通过模型得到的标签预测概率称为软标签,将预测概率最大值对应的标签称为伪标签。本发明利用深度网络模型进行样本标签的预测,进而进行噪声样本的自动识别和筛选,结果更加客观、准确。另外,整个过程没有专家的参与,不需要耗费人力,同时降低了人为带来噪声的可能性,提高了噪声标注样本识别的准确率;在模型训练前进行数据集的处理,使得处理后的数据集可以适用于其他分类模型。
-
公开(公告)号:CN113516058B
公开(公告)日:2024-05-24
申请号:CN202110680032.0
申请日:2021-06-18
Applicant: 北京工业大学
Abstract: 本发明涉及一种直播视频群组异常活动检测方法、装置、电子设备及介质,该方法包括使用卷积神经网络提取直播视频帧序列中个体的深度时空特征,并使用FPN和PAN网络对直播视频帧序列中的个体进行定位,以得到位置参数;将个体的深度时空特征和位置参数作为输入以构建图卷积模块,从而提取群组活动关系,并利用图卷积模块对时间上下文信息进行编码,以得到不同时间尺度的群组活动码字;将不同时间尺度的群组活动码字与已知类别的群组活动码字进行匹配,以判定是否发生群组异常活动和/或发生群组异常活动的时间段。本发明通过提取深度时空特征和定位,以及进行时间上下文编码,可以提高群组异常活动检测的速度和准确度,降低检测的成本。
-
公开(公告)号:CN117315772A
公开(公告)日:2023-12-29
申请号:CN202311100730.4
申请日:2023-08-29
Applicant: 北京工业大学
IPC: G06V40/20 , G06V20/40 , G06N3/0895 , G06N3/082 , G06V10/82 , G06V10/764
Abstract: 本发明实施例提供一种网络直播视频的异常动作定位方法、装置和存储介质,属于视频技术领域。该异常动作定位方法包括:基于多纤维网络对网络直播视频进行特征提取,以生成网络直播视频的片段级视频特征序列;对片段级视频特征进行处理,输出针对网络直播视频中的主播动作的类别激活序列和注意力分支;以及基于多实例学习方法计算类别激活序列与注意力分支的加权结果,生成针对主播动作的时序异常动作提名,其中时序异常动作提名用于指示针对网络直播视频的主播动作的异常动作定位结果。本发明实施例无需对视频进行大量标注,采用弱监督学习方式,降低数据标注成本和时间,满足对视频中时序异常动作的实时性定位需求,实现对异常动作的快速定位。
-
公开(公告)号:CN111666836B
公开(公告)日:2023-05-02
申请号:CN202010437866.4
申请日:2020-05-22
Applicant: 北京工业大学
IPC: G06V20/13 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: M‑F‑Y型轻量化卷积神经网络的高分辨率遥感影像目标检测方法属于遥感领域。本发明首先在轻量化卷积神经网络(CNN)模型MobileNetV3‑Small的基础上构建特征金字塔网络结构FPN,对高分辨率遥感影像提取并融合多尺度深度特征,联合利用YOLOv3tiny目标检测框架构建M‑F‑Y型轻量化卷积神经网络;之后通过构建互补注意力网络结构,抑制复杂背景同时提升对目标的空间位置信息的关注;最后使用基于迁移学习的滤波器嫁接策略训练模型,实现高分辨率遥感影像目标检测。本发明可以在提高高分辨率遥感影像目标检测准确率同时,通过更少的参数量以及更低的延迟减少对平台高速计算力的约束,为高分辨率遥感影像目标检测的实用化提供技术积累。
-
公开(公告)号:CN111128196B
公开(公告)日:2022-08-09
申请号:CN201911243498.3
申请日:2019-12-06
Applicant: 北京工业大学
Abstract: 本发明实施例提供一种基于声纹特征识别主播的方法及装置,其中方法包括:从待识别主播的直播视频中截取若干帧音频信息,根据预先训练的神经网络模型,从所述若干帧音频信息中提取待识别主播的声纹特征;根据局部敏感哈希方法将所述声纹特征存储至预先生成的哈希桶中,将与所述声纹特征处于同一哈希桶内的至少一个特征作为待匹配的样本主播的声纹特征;计算所述样本主播的声纹特征与所述待识别主播的声纹特征间的相似度,将相似度最高的样本主播作为所述待识别主播。本发明实施例适应直播条件下识别主播的要求。
-
-
-
-
-
-
-
-
-