-
公开(公告)号:CN103647960B
公开(公告)日:2016-01-20
申请号:CN201310723524.9
申请日:2013-12-24
Applicant: 北京邮电大学
IPC: H04N13/02
Abstract: 本发明提供了一种合成三维图像的方法,该方法包括:获取合成一个三维图像的子像素所需要的虚拟视点图的个数、所需要的虚拟视点图的序号和与所述虚拟视点图的序号对应的加权因子;根据虚拟视点图的序号和原始图像的深度信息求出所述三维图像的子像素对应的原始图像的子像素;根据所述原始图像的子像素、所述加权因子和所述所需要的虚拟视点图的个数求出所述三维图像的子像素。通过本发明提供的一种合成三维图像的方法,能够降低合成三维图像的计算的复杂度。
-
公开(公告)号:CN104601950A
公开(公告)日:2015-05-06
申请号:CN201410854207.5
申请日:2014-12-31
Applicant: 北京邮电大学
IPC: H04N7/18 , H04N21/434
Abstract: 本发明公开了一种视频监控方法,所述方法包括以下步骤:S1、读取视频流;S2、对所述视频流进行解码;S3、将所述步骤S2处理后得到的信息转换为RGB格式;S4、绘制三维场景中的一个多细节层次矩形节点,并将所述步骤S3得到的信息的纹理映射到所述的矩形节点上;S5、加载三维地理信息,将所述步骤S4得到的矩形节点移动到相应的地理信息空间,得到三维地理场景下二维图像;S6、剔除步骤S5得到的三维地理场景下二维图像不在视频锥体内的部分,并进行播放。本发明的方法将视频流信息与地理信息系统的三维地理信息相结合进行计算,实现将二维视频在三维地理信息场景中进行显示,并可实现同时解码四十路低质量视频、二十路高质量视频。
-
公开(公告)号:CN104506837A
公开(公告)日:2015-04-08
申请号:CN201410737620.3
申请日:2014-12-04
Applicant: 北京邮电大学
Abstract: 本发明涉及裸眼三维立体显示技术领域,尤其涉及一种射线空间中的实现裸眼三维立体显示的深度控制方法。该深度控制方法包括:S1:确定射线空间,并得到所述射线空间的极平面;S2:获得所述极平面中的线性结构及其斜率;S3:根据所述线性结构的斜率进行深度控制。本发明提供的深度控制方法避免了平移后各视点间的视差不均匀,在观看裸眼显示器时容易产生深度抖动,使观看者产生视觉疲劳等问题。使得裸眼三维立体的实现更为容易、便捷。
-
公开(公告)号:CN113900608B
公开(公告)日:2024-03-15
申请号:CN202111044457.9
申请日:2021-09-07
Applicant: 北京邮电大学
IPC: G06F3/14 , G06N3/0464 , G06N3/08 , G06T5/80
Abstract: 本申请公开了一种立体三维光场的显示方法、装置、电子设备及介质。本申请中,可以获取初始合成图像;将所述初始合成图像输入至预校正卷积神经网络中,得到经过校正后的目标合成图像,其中所述预校正卷积神经网络为采用五层卷积与反卷积结构而生成的卷积神经网络;将所述目标合成图像加载到定向扩散膜上,生成立体三维场景。通过应用本申请的技术方案,可以通过预先训练得到的预校正卷积神经网络训练模型以实现对合成图像的学习,从而达到对其进行像差预校正的目的,从而可以实现在不增加系统复杂度的前提下适用于抑制不同程度的透镜像差对光场显示设备显示质量的影响的目的。
-
公开(公告)号:CN112926596B
公开(公告)日:2023-04-07
申请号:CN202110185464.4
申请日:2021-02-10
Applicant: 北京邮电大学
IPC: G06V10/40 , G06V10/762 , G06V10/774 , G06V10/82 , G06N3/044 , G06N3/08
Abstract: 本发明提供一种基于循环神经网络的实时超像素分割方法及系统,该方法包括:提取输入图像的特征,并对所述图像进行超像素关联图初始化;基于预设训练好的循环神经网络,对所述输入图像进行实时超像素分割,所述循环神经网络的输入是由超像素关联图初始化提取的初始输入和初始隐向量确定。本发明结合深度神经网络在特征提取和计算速度方面的优势,以及传统K‑means迭代聚类方法在超像素分割任务上的有效性和简单性,实现了实时超像素分割。
-
公开(公告)号:CN113066165B
公开(公告)日:2022-06-21
申请号:CN202110298317.8
申请日:2021-03-19
Applicant: 北京邮电大学
Abstract: 本发明提供一种多阶段无监督学习的三维重建方法、装置和电子设备,包括:对于待重建物体的多视点图像中的任一视点,在前一阶段多视点图像对应的尺度特征图合成的深度图不满足预设条件时,采用当前阶段多视点图像对应的尺度特征图更新所述深度图;其中,下一阶段对应的尺度特征图的分辨率高于前一阶段对应的尺度特征图;将所有视点的深度图进行融合确定所述待重建物体的三维点云。本发明提供的方法,避免了监督式深度学习方式对数据过于依赖的问题,增强模型的泛化性,有利于广泛应用,且生成的高精度深度图可以保证三维点云融合的准确性和完整性,点云稠密。
-
公开(公告)号:CN114463408A
公开(公告)日:2022-05-10
申请号:CN202111564607.9
申请日:2021-12-20
Applicant: 北京邮电大学
Abstract: 本申请提供一种自由视点图生成方法、装置、设备及存储介质,该方法包括:通过特征提取网络结合多视点图的内外参数,提取多视点图的特征,以及结合无监督立体匹配网络得到最终目标视点深度图;通过卷积神经网络对多视点图进行特征提取,得到多视点图的多张待处理深度编码图;通过DIBR方法结合最终目标视点深度图将各张待处理深度编码图进行投影,得到多张目标深度编码图;通过预设聚合模块将各张目标深度编码图进行融合,得到目标视点编码图,以及通过全卷积网络对目标视点编码图进行解码,得到目标自由视点图。本申请实施例提供的自由视点图生成方法通过深度估计将多视点图生成虚拟的目标自由视点图,使得目标自由视点图具有高准确性。
-
公开(公告)号:CN114429496A
公开(公告)日:2022-05-03
申请号:CN202111520396.9
申请日:2021-12-13
Applicant: 北京邮电大学
Abstract: 本发明提供一种基于可学习超像素引导的视差优化方法及装置,其中方法包括:获取用户输入的第一图和第二图;将第一图和第二图输入至视差优化模型,获得视差优化模型输出的视差图;其中,第一图和第二图是由双目摄像机对同一拍摄对象拍摄获得的;视差优化模型是基于数据集进行训练后得到的,用于在超像素引导下对视差进行优化;数据集包括图片样本以及对应的真实语义图、空间位置图和真实视差图;真实语义图、空间位置图和真实视差图是根据图片样本预先确定的,并与图片样本一一对应。本发明实施例提供的基于可学习超像素引导的视差优化方法及装置,实现了超像素网络和视差网络之间的有效交互。
-
公开(公告)号:CN114237001A
公开(公告)日:2022-03-25
申请号:CN202111481395.8
申请日:2021-12-06
Applicant: 北京邮电大学
Abstract: 本发明提供一种双目全息三维显示系统及其方法,其中系统包括:分光棱镜、第一反射镜、第二反射镜、空间光调制器和全息光学元件,其中:分光棱镜用于将获取到的平行光束分为第一光束和第二光束,所述第一光束照射到空间光调制器上,第二光束照射到第一反射镜上;第一反射镜用于将第一光束照射到空间光调制器上;空间光调制器用于产生第一全息图像光和第二全息图像光;第二反射镜用于将全息图像光照射至全息光学元件上;全息光学元件用于获取第一全息图像光和第二全息图像光,并生成全息三维图像。本发明通过分别将第一全息图像光和第二全息图像光分别照射第一全息元件和第二全息元件上,将左右眼全息图像重建出来,准确的形成全息三维图像。
-
公开(公告)号:CN113938668A
公开(公告)日:2022-01-14
申请号:CN202111042784.0
申请日:2021-09-07
Applicant: 北京邮电大学
Abstract: 本发明提供了一种三维光场显示方法、装置、设备及存储介质,所述方法包括:获取三维场景信息,并生成高分辨率基元图像阵列;将所述高分辨率基元图像阵列输入神经网络模型得到训练后的低分辨率基元图像阵列;将训练后的所述低分辨率基元图像阵列转换为携带完整三维光场信息的光场光线向微透镜阵列投射;微透镜阵列对经过的所述光场光线进行调整后,投射至定向扩散膜生成大视角三维光场图像;其中,生成所述大视角三维光场图像的视觉像素,包括所述光场光线以及所述光场光线在所述定向扩散膜上投射的漫射光斑的混叠区域。这样,在不增加系统复杂度和不增加额外设备的基础上,直接增加新的视觉像素,提高三维立体图像的分辨率。
-
-
-
-
-
-
-
-
-