-
公开(公告)号:CN110264567A
公开(公告)日:2019-09-20
申请号:CN201910534171.5
申请日:2019-06-19
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于标记点的实时三维建模方法,包括如下步骤:数据采集和预处理、提取标记点组建刚体、配准并生成全局点云;本发明利用深度传感器捕获放置在转盘上的物体的点云,并通过滤波器来滤除背景和异常点云,保证点云数据的准确。接着从视图点云中提取出标记点点云,并用分区补偿法来找出圆心,从而组建刚体。紧接着通过计算各个视角下的多点刚体本身建立的坐标系与全局坐标系之间的位姿关系来间接计算各视角间的位姿变换关系,完成每一视角点云的配准。最后将多帧的点云数据进行配准融合,就可以得到全局点云模型。实验结果表明,该方法能够实时并且有效地完成三维物体的建模,计算时间远低于扫描时间且平均准确度为90%。
-
公开(公告)号:CN110264567B
公开(公告)日:2022-10-14
申请号:CN201910534171.5
申请日:2019-06-19
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于标记点的实时三维建模方法,包括如下步骤:数据采集和预处理、提取标记点组建刚体、配准并生成全局点云;本发明利用深度传感器捕获放置在转盘上的物体的点云,并通过滤波器来滤除背景和异常点云,保证点云数据的准确。接着从视图点云中提取出标记点点云,并用分区补偿法来找出圆心,从而组建刚体。紧接着通过计算各个视角下的多点刚体本身建立的坐标系与全局坐标系之间的位姿关系来间接计算各视角间的位姿变换关系,完成每一视角点云的配准。最后将多帧的点云数据进行配准融合,就可以得到全局点云模型。实验结果表明,该方法能够实时并且有效地完成三维物体的建模,计算时间远低于扫描时间且平均准确度为90%。
-
公开(公告)号:CN109087388A
公开(公告)日:2018-12-25
申请号:CN201810762485.6
申请日:2018-07-12
Applicant: 南京邮电大学
Abstract: 本发明揭示了一种基于深度传感器的物体三维建模方法,包括:S1、数据采集步骤,从深度传感器中读取数据,获得三维点云数据;S2、预处理步骤,将物体的点云从整个场景中分割出来,再去除异常点、提取物体点云的边界,得到物体在各视角下的点云;S3、相邻视角下点云配准步骤,配准相邻视角下的物体点云,得到相邻视角下物体点云间的转换矩阵;S4、全局对齐步骤,利用转换矩阵,将各个视角下的点云融合进全局点云,得到三维点云模型;S5、网格化和纹理映射步骤,将三维点云模型转为网格模型,随后将色彩信息映射到网格模型的表面,得到三维纹理模型。本发明在保证建模精度的基础上,提升了建模速度,具有很高的使用及推广价值。
-
-