-
公开(公告)号:CN119313849A
公开(公告)日:2025-01-14
申请号:CN202411428680.7
申请日:2024-10-14
IPC: G06T17/20 , G06T7/73 , G06V20/64 , G06V10/762 , G06V10/764 , G06V10/77 , G06V10/80 , G06V10/82 , G06N3/0455 , G06N3/084
Abstract: 本发明属于计算机视觉及机器人领域,公开一种基于神经隐式表示的元宇宙稠密级实例建模方法。利用实例图像、深度图像和相机内参得到空间点坐标,生成物体包围框将空间点转换到物体坐标系;采用坐标和平面联合编码方法对空间点进行特征编码,多层级线性插值得到物体特征向量和场景特征向量并进行特征融合,特征向量解码重构原始图像;利用输出信息与真值的误差优化网络和相机位姿估计结果,通过SDF网络生成场景Mesh和实例场景Mesh。本发明同时实现跟踪和地图重建,提高局部场景的重建精度和相机跟踪的精度。基于坐标和平面联合编码有效补全场景中未知区域。最终实现能够确保精确的跟踪精度、高保真的重建结果和完整的语义实例图。
-
公开(公告)号:CN119313839A
公开(公告)日:2025-01-14
申请号:CN202411429156.1
申请日:2024-10-14
Abstract: 本发明属于元宇宙物体建模技术领域,公开一种基于人在回路语义矫正和超二次曲面参数分离初始化的元宇宙物体数字化方法。通过提取图像平面特征、点特征和语义特征,基于人在回路语义矫正对获取的语义特征中的漏检和误检进行手动矫正;通过点和平面与相机之间的约束进行相机初始位姿估计;根据相机初始位姿,获取超二次曲面位姿参数;通过筛选可靠地图点,对物体所属的地图点进行最小凸包构建后估计超二次曲面的形状参数;通过局部单应性矩阵将矫正结果关联融合到后续帧中,并和构建的局部地图进行关联;本发明通过联合特征点,平面和超二次曲面约束对相机位姿进行优化,提高相机定位精度,最后输出一个超二次曲面表示物体的几何语义地图。
-
公开(公告)号:CN119785341A
公开(公告)日:2025-04-08
申请号:CN202411878571.5
申请日:2024-12-19
Applicant: 东北大学
IPC: G06V20/64 , G06N3/045 , G06V10/80 , G06V10/82 , G06N3/0464
Abstract: 本发明属于计算机视觉技术领域,公开了一种基于密度的自适应混合点云场景识别方法。首先,设计一个两阶段近邻点搜索模块,基于密度动态调整不同分布的点云的邻域大小。在此基础上,提出一个动态局部特征聚合网络,结合密度驱动的邻接矩阵,确保精确提取局部细节。此外,进一步提出一种高效的对比增强线性注意力网络,使模型能够捕获更具判别性的全局上下文特征,更好地进行场景建模。最后,结合体素特征提取来抵抗局部噪声干扰,并将逐点特征融合到体素特征中,来补偿体素化过程带来的细节损失。在数据集上的大量实验表明,本发明实现了最先进的点云场景识别结果,具有出色的鲁棒性和泛化性,验证了算法的有效性。
-
公开(公告)号:CN118470241A
公开(公告)日:2024-08-09
申请号:CN202410517685.0
申请日:2024-04-28
Applicant: 东北大学
Abstract: 本发明属于神经隐式表征及视觉SLAM技术领域,公开了一种基于体素四面体编码的神经隐式SLAM方法。根据3D点表征场景分别进行体素嵌入和四面体网格编码后,二者拼接,将整个场景建模成可学习的网格特征向量构成的编码空间,得到几何编码和颜色编码;几何编码和颜色编码分别经对应的解码器解码,通过体渲染生成结果与真实结果生成损失函数;采用经典的滑动窗口机制,不断优化当前帧之前的几个关键帧,当关键帧数量超过窗口的最大容量时,从滑动窗口中移除损失最低的关键帧,从而确保滑动窗口中的关键帧数量不超过7帧,保证运行效率。我们的方法能够在Replica和ScanNet数据集上实现准确的相机跟踪,并产生高质量的重建结果。
-
-
-