-
公开(公告)号:CN119785341A
公开(公告)日:2025-04-08
申请号:CN202411878571.5
申请日:2024-12-19
Applicant: 东北大学
IPC: G06V20/64 , G06N3/045 , G06V10/80 , G06V10/82 , G06N3/0464
Abstract: 本发明属于计算机视觉技术领域,公开了一种基于密度的自适应混合点云场景识别方法。首先,设计一个两阶段近邻点搜索模块,基于密度动态调整不同分布的点云的邻域大小。在此基础上,提出一个动态局部特征聚合网络,结合密度驱动的邻接矩阵,确保精确提取局部细节。此外,进一步提出一种高效的对比增强线性注意力网络,使模型能够捕获更具判别性的全局上下文特征,更好地进行场景建模。最后,结合体素特征提取来抵抗局部噪声干扰,并将逐点特征融合到体素特征中,来补偿体素化过程带来的细节损失。在数据集上的大量实验表明,本发明实现了最先进的点云场景识别结果,具有出色的鲁棒性和泛化性,验证了算法的有效性。
-
公开(公告)号:CN119395718A
公开(公告)日:2025-02-07
申请号:CN202411428819.8
申请日:2024-10-14
IPC: G01S17/89 , G06F18/25 , G06V20/10 , G06V20/64 , G06T7/246 , G06T7/277 , G06T7/269 , G06V10/75 , H03H17/02 , G01S17/86 , G01C21/16
Abstract: 本发明属于元宇宙物体位姿估计技术以及机器人领域,公开一种面向元宇宙环境的移动对象自身和多目标位姿多传感器融合同时估计方法。使用基于卡尔曼滤波器和光流内点的多概率融合跟踪器来建立更稳健的对象级数据关联。在此基础上,提出了一种融合3D卡尔曼滤波器的速度先验和相机光流解耦的动态点云剔除方法,以提高里程计自身位姿估计的精度。最后,在我们所提出的框架中联合多约束因子来细化自身和物体的位姿。我们在KITTI原始数据集中进行了评估,实验结果与基准和最先进的方法相比,我们的方法取得了自身和跟踪目标更好的姿态精度。此外,所提出的系统展现了实时性能的可行性,以保证其实际应用价值。
-
公开(公告)号:CN119445343A
公开(公告)日:2025-02-14
申请号:CN202411493295.0
申请日:2024-10-24
Applicant: 东北大学
IPC: G06V20/00 , G06V10/44 , G06V10/80 , G06V10/82 , G06N3/0464
Abstract: 本发明属于场景识别技术领域,公开一种基于状态空间模型的序列多模态场景识别方法。将轨迹中的激光点云和视觉图像联合编码形成多模态序列数据,通过全局描述符编码网络处理为独特的全局描述符,两个轨迹的全局描述符分别作为地图和查询;在查询过程中,通过最近邻搜索算法找到地图中最相似的数据,完成场景识别。本发明提出将激光点云和图像数据进行融合编码,增加数据维度,并压缩数据复杂度。通过基于状态空间模型的单帧模块和序列模块获得全局描述符。单帧模块中的交叉扫描设计提高计算效率,序列模块中的顺序全组合表示策略解决了场景中轨迹变化的位置识别问题。本发明具有计算高效性、高准确率和鲁棒性特点。
-
公开(公告)号:CN118747809A
公开(公告)日:2024-10-08
申请号:CN202410892056.6
申请日:2024-07-04
Applicant: 东北大学
IPC: G06V10/46 , G06V20/70 , G06V10/80 , G06V10/26 , G06V10/82 , G06V20/56 , G06T3/06 , G06F16/29 , G06F16/907 , G06N3/0464
Abstract: 本发明属于场景识别技术领域,公开一种基于点云的多视图语义嵌入场景识别方法。将两个轨迹中的点云数据通过描述符编码网络分别处理为描述符,两个描述符分别作为数据库和查询集;在采用最近邻算法找到数据库中最相似的点云,完成基于点云的全局场景识别。描述符编码网络通过多视角投影分别将点云数据投影到前向视角和鸟瞰视角,得到距离视角图像和鸟瞰视角图像;距离视角图像和鸟瞰视角图像经语义嵌入特征学习融合,并经特征自适应融合得到最终的点云描述符。本发明提出的描述符编码网络,不仅计算高效,能够利用不同视角的点云特征,还可以有效利用语义信息增强场景辨识度。所提出的描述符编码网络可以有效描述点云场景,并应用于场景识别任务。
-
-
-