-
公开(公告)号:CN112465898B
公开(公告)日:2023-01-03
申请号:CN202011309922.2
申请日:2020-11-20
Applicant: 上海交通大学
Abstract: 本发明公开了一种基于棋盘格标定板的物体3D位姿标签获取方法,涉及物体位姿获取技术领域,包括如下步骤:依靠物体的CAD模型建立物体与棋盘格标定板的位姿模板;标定相机内参、相机外参和径向畸变参数;获取物体在相机坐标系下的位姿;验证位姿获取的正确性。本发明利用棋盘格标定方法,在约束物体与棋盘格之间的位姿关系基础上,为物体真实位姿的获取提供了一种低成本、高精度的方法,为物体位姿估计方法提供了真实的验证标签。
-
公开(公告)号:CN114972524B
公开(公告)日:2024-11-12
申请号:CN202210256977.4
申请日:2022-03-16
Applicant: 上海交通大学
Abstract: 一种大尺度无共视相机外参标定方法,依靠定尺寸标定模块构建目标相机与辅助相机的联系;标定辅助相机与两个目标相机的外部参数;全局优化目标相机的外部参数;仿真实验验证本发明的可行性与精度;实际问题中应用本方法体现本发明的实际应用性。本发明利用辅助相机及定尺寸标定模块,建立大尺度下无公共视野的相机标定模式,实现了低成本、高精度、高柔性的大尺度无共视相机的标定方法,为车身定位等应用提供相机外部参数。
-
公开(公告)号:CN112465898A
公开(公告)日:2021-03-09
申请号:CN202011309922.2
申请日:2020-11-20
Applicant: 上海交通大学
Abstract: 本发明公开了一种基于棋盘格标定板的物体3D位姿标签获取方法,涉及物体位姿获取技术领域,包括如下步骤:依靠物体的CAD模型建立物体与棋盘格标定板的位姿模板;标定相机内参、相机外参和径向畸变参数;获取物体在相机坐标系下的位姿;验证位姿获取的正确性。本发明利用棋盘格标定方法,在约束物体与棋盘格之间的位姿关系基础上,为物体真实位姿的获取提供了一种低成本、高精度的方法,为物体位姿估计方法提供了真实的验证标签。
-
公开(公告)号:CN114581609B
公开(公告)日:2024-08-16
申请号:CN202210207763.8
申请日:2022-03-03
Applicant: 上海交通大学
Abstract: 一种基于物理运算引擎的三维点云数据集生成方法,通过载入物体和场景的三维模型后,随机初始化物体位姿并初始化PhysX物理世界并进行仿真;然后在OpenGL内设立拍摄系统,将PhysX物理世界中的物体位姿与三维模型中的材质、表面纹理参数输入OpenGL,在OpenGL中绘制生成场景初始点云;再通过色彩映射得到场景的语义和实例标签图像,并通过色彩逆映射实现对场景点云各点增加标签,与位姿标签数据一并作为三维点云数据集。本发明直接使用OpenGL接口对所需场景进行三维绘制,不仅能实现点云数据的仿真获取,还能够大幅提升点云数据集生成的效率和质量,适应于工业分拣、无人驾驶、智能家居等多领域应用中的高效低成本的数据集生成。
-
公开(公告)号:CN114972524A
公开(公告)日:2022-08-30
申请号:CN202210256977.4
申请日:2022-03-16
Applicant: 上海交通大学
Abstract: 一种大尺度无共视相机外参标定方法,依靠定尺寸标定模块构建目标相机与辅助相机的联系;标定辅助相机与两个目标相机的外部参数;全局优化目标相机的外部参数;仿真实验验证本发明的可行性与精度;实际问题中应用本方法体现本发明的实际应用性。本发明利用辅助相机及定尺寸标定模块,建立大尺度下无公共视野的相机标定模式,实现了低成本、高精度、高柔性的大尺度无共视相机的标定方法,为车身定位等应用提供相机外部参数。
-
公开(公告)号:CN114581609A
公开(公告)日:2022-06-03
申请号:CN202210207763.8
申请日:2022-03-03
Applicant: 上海交通大学
Abstract: 一种基于物理运算引擎的三维点云数据集生成方法,通过载入物体和场景的三维模型后,随机初始化物体位姿并初始化PhysX物理世界并进行仿真;然后在OpenGL内设立拍摄系统,将PhysX物理世界中的物体位姿与三维模型中的材质、表面纹理参数输入OpenGL,在OpenGL中绘制生成场景初始点云;再通过色彩映射得到场景的语义和实例标签图像,并通过色彩逆映射实现对场景点云各点增加标签,与位姿标签数据一并作为三维点云数据集。本发明直接使用OpenGL接口对所需场景进行三维绘制,不仅能实现点云数据的仿真获取,还能够大幅提升点云数据集生成的效率和质量,适应于工业分拣、无人驾驶、智能家居等多领域应用中的高效低成本的数据集生成。
-
-
-
-
-