目标检测方法、装置、电子设备及存储介质

    公开(公告)号:CN114663879B

    公开(公告)日:2023-02-21

    申请号:CN202210122800.5

    申请日:2022-02-09

    Abstract: 本发明提供一种目标检测方法、装置、电子设备及存储介质,所述方法包括:获取目标点云序列;将目标点云序列输入到三维目标检测模型,获取目标点云序列对应的三维目标检测结果;三维目标检测模型是通过虚拟样本和真实样本训练得到的;真实样本对应的伪标签是基于第一预测结果和第二预测结果确定的,第一预测结果是通过预训练的三维目标检测模型对真实样本数据进行预测得到的,第二预测结果是通过将第一预测结果沿时间维度传播获取的。本发明实施例通过将第一预测结果沿时间维度传播可以获取第二预测结果,进而基于第一预测结果和第二预测结果可以获取伪标签,可以实现在无人工标注数据的情况下,训练三维目标检测模型,到达较好的检测效果。

    基于关键点匹配的3D目标检测方法及装置

    公开(公告)号:CN115063789A

    公开(公告)日:2022-09-16

    申请号:CN202210574052.4

    申请日:2022-05-24

    Abstract: 本发明提供一种基于关键点匹配的3D目标检测方法及装置,其中方法包括:对二维图像进行目标检测,得到二维图像所包含目标的各关键点的二维坐标和三维坐标;基于各关键点的二维坐标和三维坐标,确定目标的各二维边和各三维边;对目标进行深度估计,得到各二维边和各三维边对应的候选深度;基于目标的各二维边的边特征和各三维边的边特征之间的差异,确定各二维边与各三维边之间的相似度;基于各二维边和各三维边对应的候选深度,以及各二维边与各三维边之间的相似度,确定目标的目标深度;基于目标的目标深度,进行3D目标检测。在此基础上,将得到的目标深度应用于目标检测,能够保证目标检测的可靠性和准确性。

    深度引导变形器的单目三维目标检测模型训练方法及装置

    公开(公告)号:CN114842287A

    公开(公告)日:2022-08-02

    申请号:CN202210307546.6

    申请日:2022-03-25

    Inventor: 张兆翔 潘聪

    Abstract: 本申请提供一种深度引导变形器的单目三维目标检测模型训练方法及装置,该方法包括:根据各个三维包围框中心点坐标及其绝对深度值训练得到第一模型;通过第一模型变换各个原始深度图,得到各个目标深度图,通过移窗视觉变形器网络融合各个目标深度图及其单目三维图像,得到各个高阶图像特征;通过预设锚框提取各个高阶图像特征的各个建议框,通过预设算法计算各个建议框的损失值;根据各个损失值计算全局损失值,结合预设模型训练方法进行模型训练,得到单目三维目标检测模型。本申请实施例提供的深度引导变形器的单目三维目标检测模型训练方法得到携带深度信息的单目三维目标检测模型,通过单目三维目标检测模型提升了单目三维目标的检测性能。

    目标检测方法、装置、电子设备及存储介质

    公开(公告)号:CN114663879A

    公开(公告)日:2022-06-24

    申请号:CN202210122800.5

    申请日:2022-02-09

    Abstract: 本发明提供一种目标检测方法、装置、电子设备及存储介质,所述方法包括:获取目标点云序列;将目标点云序列输入到三维目标检测模型,获取目标点云序列对应的三维目标检测结果;三维目标检测模型是通过虚拟样本和真实样本训练得到的;真实样本对应的伪标签是基于第一预测结果和第二预测结果确定的,第一预测结果是通过预训练的三维目标检测模型对真实样本数据进行预测得到的,第二预测结果是通过将第一预测结果沿时间维度传播获取的。本发明实施例通过将第一预测结果沿时间维度传播可以获取第二预测结果,进而基于第一预测结果和第二预测结果可以获取伪标签,可以实现在无人工标注数据的情况下,训练三维目标检测模型,到达较好的检测效果。

    弱监督语义分割方法、装置、电子设备及存储介质

    公开(公告)号:CN114463335A

    公开(公告)日:2022-05-10

    申请号:CN202111602397.8

    申请日:2021-12-24

    Abstract: 本申请实施例公开了一种弱监督语义分割方法、装置、电子设备及存储介质,方法包括:获取待识别图片,将待识别图片输入至语义分割模型中,得到语义分割结果;语义分割模型是基于训练伪标签,对基础语义分割模型进行训练后得到的;训练伪标签是由双分支模型对图片进行识别后得到的;双分支模型是基于第一训练标签和第二训练标签,进行迭代训练后得到的;第一训练标签是由CAM生成的初始标签;第二训练标签是双分支模型输出的在线标签。本申请通过迭代优化的方式训练一个双分支模型,使它可以预测更高质量的物体边界和分割结果,最后根据物体边界和分割结果生成用于训练基础语义分割模型的高质量伪标签,从而训练高精度的语义分割模型。

    基于数据扰动的跨域自适应语义分割方法及装置

    公开(公告)号:CN113627433A

    公开(公告)日:2021-11-09

    申请号:CN202110680850.0

    申请日:2021-06-18

    Abstract: 本发明提供的一种基于数据扰动的跨域自适应语义分割方法及装置,该方法包括,获取待处理数据以及添加数据扰动后的语义分割特征;基于所述待处理数据以及所述语义分割特征确定损失函数;基于所述损失函数通过误差反向传播算法训练模型得到跨域自适应语义分割模型,通过对目标域中大量无标签数据,本发明对这部分数据随机加入扰动,并保证经过扰动处理的图像能够保持语义的一致性,从数据扰动和跨域原型分类器两个角度解决了源域和目标域之间的领域不一致问题,并且针对在现实应用中更具实际应用价值的少量监督问题做了针对性的设计,并在基于对抗的学习框架下,取得了优秀的分割性能,将现有的标注样本的知识迁移到新数据模型中。

    语义分割模型的训练方法、装置、电子设备及存储介质

    公开(公告)号:CN113569852A

    公开(公告)日:2021-10-29

    申请号:CN202110643779.9

    申请日:2021-06-09

    Abstract: 本申请实施例公开了一种语义分割模型的训练方法、装置、电子设备及存储介质,方法包括:在语义分割结果中的稀疏点标注位置,基于语义分割模型的第一损失函数,第一次更新所述语义分割模型的模型参数;基于语义分割结果以及图像对应的稀疏点标签,得到图像对应的稠密像素级伪标签,并基于稠密像素级伪标签和语义分割模型的第二损失函数,第二次更新语义分割模型的模型参数;基于图像的特征数据、稠密像素级伪标签和语义分割模型的第三损失函数,第三次更新语义分割模型的模型参数。本申请实施例充分利用稀疏点标注中所隐含的信息来训练深度模型,从而在尽量小的标注代价下,取得较好的弱监督模型性能。

    基于数据分布扩充的跨域自适应语义分割方法及系统

    公开(公告)号:CN113221902B

    公开(公告)日:2021-10-15

    申请号:CN202110511220.0

    申请日:2021-05-11

    Abstract: 本发明涉及一种基于数据分布扩充的跨域自适应语义分割方法及系统,所述跨域自适应语义分割方法包括:获取不同域训练数据集;分别对源域图像及目标域图像进行傅里叶变换,得到对应的源频域图像及目标频域图像;对源频域图像进行高频滤波,得到高频信息;对目标频域图像进行低频率波,得到低频信息;根据高频信息及低频信息,通过傅里叶反变换,得到转换图像;基于转换图像,对源域图像及目标域图像进行数据增强,得到源域扩充图像及目标域扩充图像;确定第一语义分割损失模型、第一对抗损失函数、第二对抗损失函数、语义一致性损失函数;确定第二语义分割损失模型;基于第二语义分割损失模型,可对待处理图像进行准确的语义分割,提高分割精度。

    基于自标注训练样本的三维目标检测方法、系统及装置

    公开(公告)号:CN112257605B

    公开(公告)日:2021-07-23

    申请号:CN202011146504.6

    申请日:2020-10-23

    Inventor: 张兆翔 张驰 杨振

    Abstract: 本发明属于计算机视觉、模式识别和机器学习领域,具体涉及了一种基于自标注训练样本的三维目标检测方法、系统及装置,旨在解决真实带标签数据获取难度大、代价高,而虚拟数据训练的模型无法适应真实场景的问题。本发明包括:通过训练好的模型进行输入图像序列的三维目标检测,其中,模型训练方法包括:向CARLA模拟器中嵌入高质量的模型;通过基于激光雷达引导的采样算法对CARLA模拟器生成的点云数据样本进行增强;以三维目标检测器VoxelNet为基础,通过引入体素级别和锚点级别的领域自适应模块进行领域偏移的对齐,并且增加一致性约束来搭建领域自适应的三维目标检测器DA‑VoxelNet。本发明使得由虚拟数据训练的三维目标检测模型能够适应真实场景,检测效果好、精度高。

    基于类别外部记忆的视频目标检测方法、系统、装置

    公开(公告)号:CN111723719A

    公开(公告)日:2020-09-29

    申请号:CN202010536900.3

    申请日:2020-06-12

    Abstract: 本发明属于领域,具体涉及了一种基于类别外部记忆的视频目标检测方法、系统、装置,旨在解决现有技术中当辅助帧数量较小时目标检测性能下降明显的问题。本发明包括:先根据训练视频信息通过自注意机制训练视频目标检测模型,再通过训练好的视频目标检测模型和自注意机制获得待测视频增强的实例特征,最后将增强后的实例特征输入通用目标检测网络的分类分支和边界框回归分支得到目标检测结果。本发明降低了现有技术中基于特征整合的视频目标检测方法对辅助帧数目的敏感性,使在辅助帧较少或没有辅助帧的情况下也能准确地进行目标检测。

Patent Agency Ranking