-
公开(公告)号:CN116091621A
公开(公告)日:2023-05-09
申请号:CN202211741419.3
申请日:2022-12-30
Applicant: 北京邮电大学
IPC: G06T7/80
Abstract: 本发明提供一种环形相机阵列的参数标定方法、装置、设备及存储介质,该方法包括:基于环形相机阵列中每个相机采集的待测物体在不同角度下对应的多帧第一图像,确定每个相机对应的相机内参;将环形相机阵列中的所有相机按序进行分组,得到多组相机,并基于每组相机中每个相机采集的待测物体在不同角度下对应的多帧第二图像,确定每组相机对应的初始相机外参;其中,每组相机包括多个相机,相邻两组相机中存在相同的相机;对多个初始相机外参进行联合优化处理,确定环形相机阵列对应的目标相机外参;根据相机内参及目标相机外参,确定环形相机阵列对应的联合标定参数结果。该方法能够对环形相机阵列对应的相机参数进行准确标定。
-
公开(公告)号:CN114399553B
公开(公告)日:2025-03-14
申请号:CN202111467673.4
申请日:2021-12-03
Applicant: 北京邮电大学
IPC: G06T7/80 , G06T7/62 , G06N3/08 , G06N3/0464
Abstract: 本申请提供一种基于相机姿态的虚拟视点生成方法及装置。所述方法包括:根据相邻的两幅视点图像之间的匹配点对以及相邻的所述视点图像对应的相机阵列中两个相机的内部参数和外部参数,构建与所述匹配点对对应的三维点;根据与被选定的相机姿态对应的各目标相机的目标相机姿态以及内部参数,对各所述三维点进行重投影,确定与所述相机姿态对应的虚拟视点图像。本申请实施例提供的基于相机姿态的虚拟视点生成方法可以提高虚拟视点的生成效率。
-
公开(公告)号:CN119603437A
公开(公告)日:2025-03-11
申请号:CN202510078253.9
申请日:2025-01-17
Applicant: 北京邮电大学
IPC: H04N13/221 , H04N13/296 , H04N13/106 , H04N13/161
Abstract: 本发明公开了一种静态三维光场内容生成方法及系统,方法包括以下步骤:S1、采集静态场景内容的视频,通过自动取帧算法择优从视频中提取离散视差图像序列;S2、计算离散视差图像的相对位姿参数;S3、根据相对位姿参数和光场显示器的子像素排列规则,计算合成编码参数映射函数;S4、基于合成编码参数映射函数,利用CUDA和OpenGL渲染引擎将离散视差图像序列进行合成编码,并渲染至光场显示器进行显示。本发明能够快速地采集和生成高质量的真实场景下的静态光场内容,并能够根据实际需求快速调整实际的光场显示效果。
-
公开(公告)号:CN118101919A
公开(公告)日:2024-05-28
申请号:CN202410021699.3
申请日:2024-01-05
Applicant: 北京邮电大学
IPC: H04N13/366 , H04N13/383
Abstract: 本发明涉及三维显示技术领域,提供一种基于人眼追踪的三维显示方法及装置,所述方法包括:生成待显示的3D光场视频,所述3D光场视频包括多个视点视频,每个视点视频对应唯一的视点编号;压缩所述3D光场视频,并存储压缩后的3D光场视频;获取人眼所处的三维空间的坐标位置;基于所述坐标位置确定人眼在三维显示器的视区内的视点编号;对压缩后的3D光场视频中所述视区内的视点编号对应的视频解压缩,得到所述视区内的3D光场视频;根据三维显示器的像素排布,对所述视区内的3D光场视频进行合成编码,将合成编码后的光场编码图加载到三维显示器显示。本发明只对人眼所在视区内的视点编号对应的视频进行解码并显示,从而减少了数据冗余。
-
公开(公告)号:CN118015951A
公开(公告)日:2024-05-10
申请号:CN202311838851.9
申请日:2023-12-28
Applicant: 北京邮电大学
Abstract: 本申请涉及数据处理技术领域,提供一种显示画面的串扰校正方法、装置、电子设备及介质,所述方法包括:获取从目标视角采集的显示器的初始显示画面信息;确定目标视角对应视点的参考画面信息;若初始显示画面信息与参考画面信息的相似度小于预设相似度阈值,则对初始合成编码参数矩阵进行调整,得到中间合成编码参数矩阵;中间合成编码参数矩阵用于对多视点图像进行合成编码得到目标显示画面信息;若从目标视角采集的显示器的目标显示画面信息,与参考画面信息的相似度大于或等于预设相似度阈值,则将中间合成编码参数矩阵确定为目标合成编码参数矩阵。本申请可以对三维显示器中视点间串扰的现象进行校正,由此提高三维显示器的三维画面显示质量。
-
公开(公告)号:CN117173232A
公开(公告)日:2023-12-05
申请号:CN202310937667.3
申请日:2023-07-27
Applicant: 北京邮电大学
IPC: G06T7/55 , G06T5/50 , G06T19/20 , G06N3/0475 , G06N3/09
Abstract: 本发明提供一种深度图像的获取方法、装置及设备,该方法包括:获取目标三维场景的原始RGB图像和原始深度图像;将所述原始RGB图像,输入至色彩深度信息融合模型中的特征金字塔网络,得到多个图像特征;将所述多个图像特征和所述原始深度图像,输入至所述色彩深度信息融合模型中的深度图像生成网络,得到所述目标三维场景的目标深度图像。本发明提供一种深度图像的获取方法、装置及设备用于提高深度图像的准确率。
-
-
-
-
-