-
公开(公告)号:CN116246241A
公开(公告)日:2023-06-09
申请号:CN202211635113.X
申请日:2022-12-19
Applicant: 苏州挚途科技有限公司
IPC: G06V20/58 , G06V10/40 , G06V10/82 , G06V10/764 , G06N3/0464 , G06N3/08
Abstract: 本申请提供了一种目标物的检测方法及装置、车辆、处理器以及电子设备,通过获取原始点云,对原始点云进行体素化处理以得到体素特征矩阵以及体素坐标矩阵;将体素特征矩阵以及体素坐标矩阵输入至稀疏卷积主干网络,控制稀疏卷积主干网络对体素特征矩阵进行分类,并控制稀疏卷积主干网络输出目标特征,其中,目标特征为去除非目标特征后得到的特征,目标特征为目标物对应的特征;对目标特征行密集化处理,以获得密集特征图,其中,密集特征图不包含非目标对应的特征;依据密集特征图,对目标物进行检测。解决了相关技术中在较为复杂的场景中,采用SECOND算法,经常出现绿化带误检,导致目标物的检测精度不高的技术问题。
-
公开(公告)号:CN112396068B
公开(公告)日:2021-04-16
申请号:CN202110066231.2
申请日:2021-01-19
Applicant: 苏州挚途科技有限公司
Abstract: 本发明提供了一种点云数据的处理方法、装置及电子设备,涉及数据处理的技术领域,该方法包括:获取原始点云数据集,提取点云数据集中的每个点的特征信息,对原始点云数据集进行采样处理,以生成原始点云数据集的关键点集;对于关键点集中的每个关键点,根据特征信息计算原始点云数据集中所有的点到该关键点的高斯距离;基于高斯距离确定该关键点的相邻点集;对相邻点集进行特征聚合,生成该关键点对应的特征点;统计每个关键点对应的特征点,生成原始点云数据集的特征点集。本发明提供的点云数据的处理方法、装置及电子设备,由于减少了人工干预的过程,因此,能减少错误特征提取的可能性,不仅增强了特征鲁棒性,也改善了最终的感知性能。
-
公开(公告)号:CN112396068A
公开(公告)日:2021-02-23
申请号:CN202110066231.2
申请日:2021-01-19
Applicant: 苏州挚途科技有限公司
Abstract: 本发明提供了一种点云数据的处理方法、装置及电子设备,涉及数据处理的技术领域,该方法包括:获取原始点云数据集,提取点云数据集中的每个点的特征信息,对原始点云数据集进行采样处理,以生成原始点云数据集的关键点集;对于关键点集中的每个关键点,根据特征信息计算原始点云数据集中所有的点到该关键点的高斯距离;基于高斯距离确定该关键点的相邻点集;对相邻点集进行特征聚合,生成该关键点对应的特征点;统计每个关键点对应的特征点,生成原始点云数据集的特征点集。本发明提供的点云数据的处理方法、装置及电子设备,由于减少了人工干预的过程,因此,能减少错误特征提取的可能性,不仅增强了特征鲁棒性,也改善了最终的感知性能。
-
公开(公告)号:CN112396067A
公开(公告)日:2021-02-23
申请号:CN202110066220.4
申请日:2021-01-19
Applicant: 苏州挚途科技有限公司
Abstract: 本申请提供了一种点云数据采样方法、装置及电子设备,方法包括:获取目标对象的原始点云数据;原始点云数据为通过激光雷达对目标对象进行扫描得到的点云数据;原始点云数据中每个点对应有三维坐标值;通过预设神经网络对原始点云数据进行特征提取,得到原始点云数据中每个点对应的特征值;基于每个点分别对应的三维坐标值和特征值所确定的点与点之间的距离,对原始点云数据进行循环点采样,以不断更新当前点云采样集,直到当前点云采样集对应的采样点云数量达到预设阈值,将当前点云采样集确定为目标点云采样集。本申请能够增加前景点的采样,在保证实时性的基础上提升感知性能。
-
公开(公告)号:CN117789164A
公开(公告)日:2024-03-29
申请号:CN202311750536.0
申请日:2023-12-19
Applicant: 苏州挚途科技有限公司
IPC: G06V20/58 , G06V10/764 , G06V10/25 , G06N20/00
Abstract: 本申请涉及计算机技术领域,为一种智能驾驶技术技术,具体为一种模型训练方法、装置、目标识别方法及相关设备。本申请实施例提供的技术方案中,在进行模型训练时通过损失函数计算两两预测框之间的代价值,然后使用匈牙利匹配算法在预测框之间进行一对一匹配,得到最大代价值。在模型迭代的过程中,通过最小化代价值,从而使得预测框之间尽量分散,减少重复检测。
-
公开(公告)号:CN115661812A
公开(公告)日:2023-01-31
申请号:CN202211417740.6
申请日:2022-11-14
Applicant: 苏州挚途科技有限公司
IPC: G06V20/64 , G06V20/56 , G06V10/42 , G01S7/48 , G01S17/931
Abstract: 本申请提供了一种目标检测方法、目标检测装置与电子设备。该目标检测方法包括:对接收的连续的至少第一数量帧的点云数据进行分层,得到多个目标点云数据层,其中,一个目标点云数据层包括第二数量帧的点云数据,点云数据为基于3D传感器获取的车辆在预设场景下的三维数据信息,第一数量大于第二数量;至少基于各目标点云数据层,提取对应的目标点云数据层的体素特征,得到多个目标分层特征,其中,一个目标点云数据层对应一个目标分层特征;至少基于多个目标分层特征,得到全局注意力特征,并将全局注意力特征至少输入至预设检测网络中,以进行目标检测,从而解决了现有技术中因较多帧数原始点云叠加,导致检测算法的检测性能下降的问题。
-
公开(公告)号:CN114119826A
公开(公告)日:2022-03-01
申请号:CN202111341018.4
申请日:2021-11-12
Applicant: 苏州挚途科技有限公司
Abstract: 本发明提供了一种图像处理方法、装置及电子设备,涉及自动驾驶技术领域。其中,方法包括:对三维点云图像中的第一3D框进行位姿变换,得到与第一3D框包含相同内容但是位置和/或尺寸不同的第二3D框,并基于第二3D框得到点云增强图像;然后根据第二3D框确定二维图像中相对应的第二2D框,最后基于二维图像中的第一2D框和第二2D框对第二2D框进行内容填充,得到二维增强图像。本发明实施例通过对点云图像中的第一3D框进行位姿变换得到第二3D框,使得得到的点云增强图像与原图像在距离和尺寸上具有差异,增强了生成的样本图像的多样性,同时保证了生成的图像对在尺寸和位置上的一致性。
-
公开(公告)号:CN115661812B
公开(公告)日:2023-04-07
申请号:CN202211417740.6
申请日:2022-11-14
Applicant: 苏州挚途科技有限公司
IPC: G06V20/64 , G06V20/56 , G06V10/42 , G01S7/48 , G01S17/931
Abstract: 本申请提供了一种目标检测方法、目标检测装置与电子设备。该目标检测方法包括:对接收的连续的至少第一数量帧的点云数据进行分层,得到多个目标点云数据层,其中,一个目标点云数据层包括第二数量帧的点云数据,点云数据为基于3D传感器获取的车辆在预设场景下的三维数据信息,第一数量大于第二数量;至少基于各目标点云数据层,提取对应的目标点云数据层的体素特征,得到多个目标分层特征,其中,一个目标点云数据层对应一个目标分层特征;至少基于多个目标分层特征,得到全局注意力特征,并将全局注意力特征至少输入至预设检测网络中,以进行目标检测,从而解决了现有技术中因较多帧数原始点云叠加,导致检测算法的检测性能下降的问题。
-
公开(公告)号:CN114943836A
公开(公告)日:2022-08-26
申请号:CN202210541370.0
申请日:2022-05-17
Applicant: 苏州挚途科技有限公司 , 挚途(上海)智能科技有限公司
Abstract: 本申请提供了一种挂车角度检测方法、装置及电子设备,该方法包括:首先通过车头上安装的拍摄装置拍摄得到包含挂车的图像,并从图像中识别出挂车侧面边沿所占像素,最后根据边沿像素、挂车的实际尺寸信息以及拍摄装置的参数信息,确定挂车在行驶过程中的当前时刻相对于车头的旋转角度。本申请的技术避免了在挂车特定位置放置位置识别标识带来的场景受限问题,并且用价格更低的拍摄装置代替昂贵的雷达装置,可以扩大适用场景的同时降低检测成本。
-
公开(公告)号:CN114240763A
公开(公告)日:2022-03-25
申请号:CN202111341036.2
申请日:2021-11-12
Applicant: 苏州挚途科技有限公司 , 挚途(上海)智能科技有限公司
Abstract: 本发明提供了一种图像处理方法、装置及电子设备,该方法包括:在所述三维点云图像中添加第一噪声点集,得到点云增强图像;对所述第一噪声点集中的每个第一噪声点,均执行以下获取操作:根据所述第一噪声点在所述三维点云图像中的第一坐标信息,确定所述第一噪声点在所述二维图像中对应的第二坐标;根据所述二维图像中所述第二坐标对应的像素信息,获取所述第二坐标对应的第二噪声点的像素信息;当每个所述第一噪声点均完成所述获取操作时,根据每个所述第二噪声点对应的第二坐标和像素信息,对所述二维图像进行融合操作,得到与所述点云增强图像对应的二维增强图像,本发明技术有效提高了点云增强图像与二维增强图像的对齐效果。
-
-
-
-
-
-
-
-
-