-
公开(公告)号:CN117523201A
公开(公告)日:2024-02-06
申请号:CN202311532326.4
申请日:2023-11-16
Applicant: 东华理工大学
Abstract: 本发明涉及基于深度残差与注意力丢弃的体素化网络的点云语义分割网络模型,其包括:Deep Inverse Residual模块,挖掘体素深层次信息,以弥补体素化时点云信息丢失的损失;Drop Attention模块,扩大每个体素对全局信息的感受野范围。本发明方法的语义分割性能mIoU为65.6%,与其他方法相比,实现了最好的语义分割性能。其与同样采用稀疏卷积的方法Minkowski相比,性能提升2.4%;与最近的方法GeoSegNet相比,性能提升0.7%;从mIoU量化结果可以看出,本发明方法实现了最好的点云分割性能。对于采用体素化分割的方法PVT,本发明方法性能上升0.1%。同时,对于其他网络(PointNet、PointNet++、PointConv以及P2P)均有不同的提升。
-
公开(公告)号:CN117934836A
公开(公告)日:2024-04-26
申请号:CN202410092316.1
申请日:2024-01-23
Applicant: 东华理工大学
Abstract: 本发明涉及计算机三维视觉处理技术领域,具体的说是基于深度残差与注意力丢弃的体素化网络的点云语义分割网络模型,包括Deep Inverse Residual模块和Drop Attention模块,利用Deep Inverse Residual模块挖掘体素深层次信息,以弥补体素化时点云信息丢失的损失,再通过Drop Attention模块,扩大每个体素对全局信息的感受野范围;本发明利用Deep Inverse Residual挖掘体素的深层次信息,以弥补体素化过程中点云信息丢失所造成的损失;通过Drop Attention模块来使局部体素区域能够获取全局信息。此外,采用随机丢弃部分全局信息的策略,防止冗余的部分全局信息对局部体素区域造成干扰,以提高模型的鲁棒性;本发明所提方法在室内场景数据集S3DISArea5上的mIoU能超越了许多点云语义分割的方法。
-