-
公开(公告)号:CN116597240A
公开(公告)日:2023-08-15
申请号:CN202310563276.X
申请日:2023-05-18
Applicant: 北京理工大学
IPC: G06V10/766 , G06V10/762 , G06V10/26 , G06V10/82 , G06N3/045 , G06N3/0895
Abstract: 本发明提供了一种自回归生成式点云转换器预训练方法,采用双重掩蔽策略可以有效地降低点云数据的冗余度,并提供有效的预训练任务,对于促进有益的表示学习和增强预训练模型的泛化能力有显著的效果;相对方向提示可以防止模型过度拟合图像块的顺序,从而提高了模型在下游任务中的泛化能力;提取器‑生成器结构,特别是与深度生成器相结合时,可以减小生成和下游任务之间的差距,从而在整体上获得更好的性能;在具体效果上,本方法相比于现有方法具有更强的泛化能力,并且相比于现有方法,本方法率先探索了点云单模态大模型预训练效果,并在所有自监督方法中取得了最佳的水平。
-
公开(公告)号:CN117237425A
公开(公告)日:2023-12-15
申请号:CN202311196864.0
申请日:2023-09-18
Applicant: 北京理工大学
IPC: G06T7/33 , G06N3/045 , G06N3/08 , G06N3/0464 , G06N3/0499 , G06N3/0455
Abstract: 本发明提供一种基于遮蔽重建辅助训练网络的点云匹配方法,在训练过程中,遮蔽重建辅助训练网络单独利用从主干网中获取的每个点云的编码表示来在坐标空间中重建完整的点云;训练完成后,遮蔽重建辅助训练网络被分离,从而避免了额外的推理时间;与之前仅在可见部分进行掩码重建方法不同,遮蔽重建辅助训练网络充分利用点云之间的变换以避免位置信息的早期泄漏;因此,本方法直接利用从两个点云中获取的上下文信息,设计出这种简洁的方法,可以进行点云之间的关系建模和单次模型训练。此外,这种设计使得本辅助训练网络能够指导骨干网中的上下文特征捕捉点云对的几何细节和整体结构。
-