-
公开(公告)号:CN111988596A
公开(公告)日:2020-11-24
申请号:CN202010853410.6
申请日:2020-08-23
Applicant: 咪咕视讯科技有限公司 , 北京大学 , 咪咕文化科技有限公司 , 中国移动通信集团有限公司
IPC: H04N13/106 , H04N13/122
Abstract: 本发明公开了一种虚拟视点合成方法、装置、电子设备及可读存储介质,属于图像处理技术领域。具体实现方案包括:确定进行虚拟视点合成时所需的目标参考视点的数量N;所述N为大于2的整数;根据预设约束条件,从当前所有参考视点中选取N个目标参考视点;根据所述N个目标参考视点进行虚拟视点合成。这样相比于现有技术,可以实现使用较多的参考视点映射到虚拟视点,提升虚拟视点的合成质量。
-
公开(公告)号:CN111988596B
公开(公告)日:2022-07-26
申请号:CN202010853410.6
申请日:2020-08-23
Applicant: 咪咕视讯科技有限公司 , 北京大学 , 咪咕文化科技有限公司 , 中国移动通信集团有限公司
IPC: H04N13/106 , H04N13/122
Abstract: 本发明公开了一种虚拟视点合成方法、装置、电子设备及可读存储介质,属于图像处理技术领域。具体实现方案包括:确定进行虚拟视点合成时所需的目标参考视点的数量N;所述N为大于2的整数;根据预设约束条件,从当前所有参考视点中选取N个目标参考视点;根据所述N个目标参考视点进行虚拟视点合成。这样相比于现有技术,可以实现使用较多的参考视点映射到虚拟视点,提升虚拟视点的合成质量。
-
公开(公告)号:CN111988597A
公开(公告)日:2020-11-24
申请号:CN202010853423.3
申请日:2020-08-23
Applicant: 咪咕视讯科技有限公司 , 北京大学 , 咪咕文化科技有限公司 , 中国移动通信集团有限公司
IPC: H04N13/106 , H04N13/122
Abstract: 本发明公开了一种虚拟视点合成方法、装置、电子设备及可读存储介质,属于图像处理技术领域。具体实现方案包括:获取参考视点的原始纹理图和原始深度图;根据所述原始纹理图和所述原始深度图,重建得到所述参考视点的背景纹理图和背景深度图;获取所述原始纹理图和所述背景纹理图之间的差异信息;根据所述差异信息,利用所述背景深度图对所述原始深度图进行优化,得到优化后的深度图;根据所述原始纹理图和所述优化后的深度图,进行虚拟视点合成。根据本申请中方案,可以提升对深度图的改善效果,从而有效改善虚拟视点视频的时域稳定性。
-
公开(公告)号:CN118509667A
公开(公告)日:2024-08-16
申请号:CN202410733360.6
申请日:2024-06-06
Applicant: 咪咕视讯科技有限公司 , 北京大学
IPC: H04N21/81 , H04N19/597 , H04N21/4402 , H04N21/6587
Abstract: 本公开提供一种信息传输方法、装置、设备、存储介质和计算机程序产品,涉及视频编解码的技术领域。其中方法应用于编码设备时,包括:将目标全景视频拆分为多个视场角视频,所述多个视场角视频对应多个连续的视场角区间;对多个I帧和目标视场角视频对应的P帧进行编码,得到目标信息,其中,所述多个I帧和所述多个视场角视频一一对应,所述目标视场角视频对应的视场角区间包括解码设备对应的视频观看角度;向所述解码设备传输所述目标信息,以使所述解码设备缓存所述多个I帧,所述多个I帧和所述目标视场角视频对应的P帧用于形成解码视频。本公开能避免相关技术因I帧传输造成的时延影响,使切流操作的时延降低。
-
公开(公告)号:CN118827943A
公开(公告)日:2024-10-22
申请号:CN202410805953.9
申请日:2024-06-20
Applicant: 咪咕视讯科技有限公司 , 北京大学
IPC: H04N13/106 , H04N13/363
Abstract: 本申请提供一种全景视频的平面映射方法、系统、设备、介质和程序产品,该方法包括:获取单目视频对应的球面全景视频;将球面全景视频按照预设投影方式映射到多个平面,获得多个平面的对应的图像数据;将映射主视角对应的图像数据进行拆分重组,得到第一映射结果;降低除映射主视角之外的其余映射视角对应的图像数据的分辨率,得到每个其余映射视角对应的第二映射结果;根据第一映射结果和第二映射结果,得到单目视频对应的第一平面映射结果。本申请在维持映射主视角高分辨率的基础上,降低其他视角分辨率,减少数据量和视频编码时的复杂性,进而提高编码效率和传输效率,节省计算资源和存储空间,在保证视频质量的同时降低码率。
-
公开(公告)号:CN111988597B
公开(公告)日:2022-06-14
申请号:CN202010853423.3
申请日:2020-08-23
Applicant: 咪咕视讯科技有限公司 , 北京大学 , 咪咕文化科技有限公司 , 中国移动通信集团有限公司
IPC: H04N13/106 , H04N13/122
Abstract: 本发明公开了一种虚拟视点合成方法、装置、电子设备及可读存储介质,属于图像处理技术领域。具体实现方案包括:获取参考视点的原始纹理图和原始深度图;根据所述原始纹理图和所述原始深度图,重建得到所述参考视点的背景纹理图和背景深度图;获取所述原始纹理图和所述背景纹理图之间的差异信息;根据所述差异信息,利用所述背景深度图对所述原始深度图进行优化,得到优化后的深度图;根据所述原始纹理图和所述优化后的深度图,进行虚拟视点合成。根据本申请中方案,可以提升对深度图的改善效果,从而有效改善虚拟视点视频的时域稳定性。
-
公开(公告)号:CN119728940A
公开(公告)日:2025-03-28
申请号:CN202411653608.4
申请日:2024-11-19
Applicant: 北京大学深圳研究生院
IPC: H04N13/161 , H04N13/243 , H04N13/282
Abstract: 本申请公开了一种三维体积视频编码及生成方法、装置、电子设备及存储介质,涉及体积视频技术领域,包括:获取多视点视频中的关键多视点图像;根据关键多视点图像重建多视点视频的关键场景,并对关键场景编码得到关键场景的码流,以供解码得到关键场景表示模型;对预设变换缓存进行编码,得到非关键场景的码流,以供解码后结合上一时刻的场景表示模型,得到非关键场景表示模型;在遍历各非关键多视点图像后,基于关键场景表示模型和各非关键场景表示模型生成三维体积视频。本申请实现了快速、准确、高质量地生成三维体积视频的效果,显著提高了体积视频生成过程的数据处理效率,同时减少了数据传输量。
-
公开(公告)号:CN119379907A
公开(公告)日:2025-01-28
申请号:CN202411447037.9
申请日:2024-10-16
Applicant: 北京大学深圳研究生院
IPC: G06T17/00 , G06T15/20 , G06N3/0499 , G06N3/096
Abstract: 本申请公开了一种动态场景重建方法、装置、设备、介质及产品,涉及计算机视觉技术领域,所述方法包括:获取初始帧图像;基于所述初始帧图像生成或确定动态点云及静态点云;对所述动态点云进行变形处理,得到变形后的动态点云;基于所述静态点云与所述变形后的动态点云进行混合渲染,得到目标渲染图像,通过划分动态点云及静态点云,避免对静态点云统一进行变形处理,可以降低变形所需的计算开销和存储需求,从而提高动态场景重建的效率。
-
公开(公告)号:CN117528104A
公开(公告)日:2024-02-06
申请号:CN202311441926.X
申请日:2023-10-31
Applicant: 北京大学深圳研究生院
IPC: H04N19/51 , H04N19/577 , H04N19/61 , H04N19/177 , H04N19/42 , G06N3/08
Abstract: 本发明公开了一种基于P、B帧的视频压缩方法、装置及可读存储介质,其方法包括:基于各个训练样本中的非关键帧,确定各个训练样本对应的帧间预测帧;在训练阶段获取各个训练样本对应的P帧以及B帧,并基于各个训练样本对应的帧间预测帧、P帧以及B帧更新编码框架的参数,以获得目标编码框架;获取待压缩视频中各个图像组,基于各个图像组对应的运动信息,确定各个图像组对应的目标帧类型;基于所述目标帧类型对应的预测结构,分别通过所述目标编码框架对各个图像组进行P帧编码和/或B帧编码,以获得目标压缩视频。本发明可以在一个深度学习视频编码框架中同时支持P帧和B帧的编码,拓展了深度学习视频编码的应用场景。
-
公开(公告)号:CN109785263B
公开(公告)日:2022-09-16
申请号:CN201910030455.0
申请日:2019-01-14
Applicant: 北京大学深圳研究生院
Abstract: 本发明公布了一种基于Retinex的逆色调映射图像转换方法,基于多尺度Retinex模型,将逆色调映射分为动态范围扩展子任务和细节纹理恢复子任务;针对逆色调映射的子任务设计不同的逆色调映射网络,得到恢复后的光照分量和反射分量,再基于多尺度Retinex模型进行合并,得到高动态范围图像。与现有的技术相比,本发明方法具有减少色偏,恢复过曝区域信息等优势;能够鲁棒地完成低动态范围图像向高动态范围图像转换。在扩展动态范围的同时,还能恢复过曝区域纹理以及保证颜色不失真。
-
-
-
-
-
-
-
-
-