一种视觉场景标志检测与识别方法及装置

    公开(公告)号:CN114118127B

    公开(公告)日:2024-05-21

    申请号:CN202111205085.3

    申请日:2021-10-15

    Abstract: 本申请实施例涉及一种视觉场景标志的检测与识别方法及装置,该方法包括:通过视觉场景标志合成算法确定目标识别类别的视觉场景标志训练数据;基于多尺度特征融合网络模型,对视觉场景标志训练数据进行视觉场景标志的检测与识别;其中,多尺度特征融合网络模型基于以下步骤获得:构建多尺度特征融合网络模型;基于视觉场景标志合成数据对多尺度特征融合网络模型进行第一训练,得到第一训练后的多尺度特征融合网络模型;基于预先标注的视觉场景标志对第一训练后的多尺度特征融合网络模型进行第二训练,得到训练好的多尺度特征融合网络模型。本申请实施例能够提升视觉场景标志检测与识别的精准度和速度。

    一种视觉场景标志检测与识别方法及装置

    公开(公告)号:CN114118127A

    公开(公告)日:2022-03-01

    申请号:CN202111205085.3

    申请日:2021-10-15

    Abstract: 本申请实施例涉及一种视觉场景标志的检测与识别方法及装置,该方法包括:通过视觉场景标志合成算法确定目标识别类别的视觉场景标志训练数据;基于多尺度特征融合网络模型,对视觉场景标志训练数据进行视觉场景标志的检测与识别;其中,多尺度特征融合网络模型基于以下步骤获得:构建多尺度特征融合网络模型;基于视觉场景标志合成数据对多尺度特征融合网络模型进行第一训练,得到第一训练后的多尺度特征融合网络模型;基于预先标注的视觉场景标志对第一训练后的多尺度特征融合网络模型进行第二训练,得到训练好的多尺度特征融合网络模型。本申请实施例能够提升视觉场景标志检测与识别的精准度和速度。

    一种自动驾驶目标检测系统及方法

    公开(公告)号:CN119992265A

    公开(公告)日:2025-05-13

    申请号:CN202411892841.8

    申请日:2024-12-20

    Abstract: 本发明实施例提供一种自动驾驶目标检测系统及方法,属于目标检测技术领域。系统包括:相机网络分支,用于获取环视图像数据,并提取相机BEV特征;雷达网络分支,用于获取雷达点云数据,并提取雷达BEV特征;历史特征时序融合模块,用于基于相机BEV特征提取时序融合相机BEV特征,基于雷达BEV特征提取时序融合雷达BEV特征;雷达‑相机特征交互注意力模块,用于将时序融合相机BEV特征和时序融合雷达BEV特征进行交互,得到交互后的相机BEV特征;融合检测头网络,用于基于交互后的相机BEV特征和时序融合雷达BEV特征,得到自动驾驶目标检测结果。该系统用于解决严重遮挡障碍物的问题,提高自动驾驶中目标检测的效果。

    一种中医舌色噪声标注样本的自动识别与清洗方法

    公开(公告)号:CN114037011B

    公开(公告)日:2024-05-28

    申请号:CN202111316442.3

    申请日:2021-11-08

    Abstract: 本发明公开了一种中医舌色噪声标注样本的自动识别与清洗方法,通过对比预测标签与人工标注标签的概率关系,采用两种不同的筛选策略,实现对舌色噪声标注数据的准确、自动识别与清洗。本发明将人工标注标签称为硬标签,将通过模型得到的标签预测概率称为软标签,将预测概率最大值对应的标签称为伪标签。本发明利用深度网络模型进行样本标签的预测,进而进行噪声样本的自动识别和筛选,结果更加客观、准确。另外,整个过程没有专家的参与,不需要耗费人力,同时降低了人为带来噪声的可能性,提高了噪声标注样本识别的准确率;在模型训练前进行数据集的处理,使得处理后的数据集可以适用于其他分类模型。

    直播视频群组异常活动检测方法、装置、电子设备及介质

    公开(公告)号:CN113516058B

    公开(公告)日:2024-05-24

    申请号:CN202110680032.0

    申请日:2021-06-18

    Abstract: 本发明涉及一种直播视频群组异常活动检测方法、装置、电子设备及介质,该方法包括使用卷积神经网络提取直播视频帧序列中个体的深度时空特征,并使用FPN和PAN网络对直播视频帧序列中的个体进行定位,以得到位置参数;将个体的深度时空特征和位置参数作为输入以构建图卷积模块,从而提取群组活动关系,并利用图卷积模块对时间上下文信息进行编码,以得到不同时间尺度的群组活动码字;将不同时间尺度的群组活动码字与已知类别的群组活动码字进行匹配,以判定是否发生群组异常活动和/或发生群组异常活动的时间段。本发明通过提取深度时空特征和定位,以及进行时间上下文编码,可以提高群组异常活动检测的速度和准确度,降低检测的成本。

    一种网络直播视频的异常动作定位方法、装置和存储介质

    公开(公告)号:CN117315772A

    公开(公告)日:2023-12-29

    申请号:CN202311100730.4

    申请日:2023-08-29

    Abstract: 本发明实施例提供一种网络直播视频的异常动作定位方法、装置和存储介质,属于视频技术领域。该异常动作定位方法包括:基于多纤维网络对网络直播视频进行特征提取,以生成网络直播视频的片段级视频特征序列;对片段级视频特征进行处理,输出针对网络直播视频中的主播动作的类别激活序列和注意力分支;以及基于多实例学习方法计算类别激活序列与注意力分支的加权结果,生成针对主播动作的时序异常动作提名,其中时序异常动作提名用于指示针对网络直播视频的主播动作的异常动作定位结果。本发明实施例无需对视频进行大量标注,采用弱监督学习方式,降低数据标注成本和时间,满足对视频中时序异常动作的实时性定位需求,实现对异常动作的快速定位。

    M-F-Y型轻量化卷积神经网络的高分辨率遥感影像目标检测方法

    公开(公告)号:CN111666836B

    公开(公告)日:2023-05-02

    申请号:CN202010437866.4

    申请日:2020-05-22

    Abstract: M‑F‑Y型轻量化卷积神经网络的高分辨率遥感影像目标检测方法属于遥感领域。本发明首先在轻量化卷积神经网络(CNN)模型MobileNetV3‑Small的基础上构建特征金字塔网络结构FPN,对高分辨率遥感影像提取并融合多尺度深度特征,联合利用YOLOv3tiny目标检测框架构建M‑F‑Y型轻量化卷积神经网络;之后通过构建互补注意力网络结构,抑制复杂背景同时提升对目标的空间位置信息的关注;最后使用基于迁移学习的滤波器嫁接策略训练模型,实现高分辨率遥感影像目标检测。本发明可以在提高高分辨率遥感影像目标检测准确率同时,通过更少的参数量以及更低的延迟减少对平台高速计算力的约束,为高分辨率遥感影像目标检测的实用化提供技术积累。

    基于声纹特征识别主播的方法及装置

    公开(公告)号:CN111128196B

    公开(公告)日:2022-08-09

    申请号:CN201911243498.3

    申请日:2019-12-06

    Abstract: 本发明实施例提供一种基于声纹特征识别主播的方法及装置,其中方法包括:从待识别主播的直播视频中截取若干帧音频信息,根据预先训练的神经网络模型,从所述若干帧音频信息中提取待识别主播的声纹特征;根据局部敏感哈希方法将所述声纹特征存储至预先生成的哈希桶中,将与所述声纹特征处于同一哈希桶内的至少一个特征作为待匹配的样本主播的声纹特征;计算所述样本主播的声纹特征与所述待识别主播的声纹特征间的相似度,将相似度最高的样本主播作为所述待识别主播。本发明实施例适应直播条件下识别主播的要求。

Patent Agency Ranking