一种用于解码器或编码器的帧间预测值构造方法

    公开(公告)号:CN119031127A

    公开(公告)日:2024-11-26

    申请号:CN202310596103.8

    申请日:2023-05-24

    Abstract: 本发明公开了一种用于解码器或编码器的帧间预测值构造方法,包括:获取当前编码块的帧内/帧间预测编码模式信息,并根据所述预测模式信息和对应的参数信息获得帧内预测值和帧间预测值;当加权权值在帧内预测编码模式为方向模式时,将当前编码块分为多个子块区域,对不同子块区域分别获得帧内预测权值和帧间预测权值,通过对各子块区域进行不同权值下的加权,确定预测采样值,其中,所述子块区域为矩形、三角形和/或L形。本发明针对各种方向性角度邻近帧内预测像素与当前编码块内像素的空间距离与相关性成反比的权值设置规则进行了改进,对CIIP技术中针对帧内和帧间预测权值进行细化,从而提高预测准确性。

    一种点云属性重着色方法、装置及编码器

    公开(公告)号:CN112509107B

    公开(公告)日:2024-02-20

    申请号:CN202011396402.X

    申请日:2020-12-03

    Abstract: 本发明公开了一种点云属性重着色方法、装置及编码器,所述点云属性重着色方法包括:获取原始点云并进行处理,得到重构点云;在原始点云中找出与重构点云中的每个点对应的关联点,得到关联点集;基于关联点集中所有点的原始属性信息,对关联点集中原始点云的重复点进行合并处理,以得到处理后的关联点集的属性信息;根据处理后的关联点集的属性信息计算重构点云中每个点的属性信息。本发明在进行属性重着色时,对原始点云中的重复点进行了合并处理,减少了重复点对重构属性值的影响,在不增加编码复杂度的同时,提高了重构点云质量和编码性能。

    一种点云几何信息编码及解码方法

    公开(公告)号:CN112565795B

    公开(公告)日:2022-10-04

    申请号:CN202011400527.5

    申请日:2020-12-03

    Abstract: 本发明提供的一种点云几何信息编码及解码方法,通过获取点云几何信息的当前八叉树划分模型;针对当前八叉树划分模型中的待编码子节点层,将与待编码子节点同层的邻居节点以及与待编码子节点同一坐标系各个维度负方向上,距离待编码子节点两个节点边长处的节点确定为目标节点,并获取目标节点的占位情况,按照目标节点的占位情况确定待编码子节点占位码的上下文模型;对确定上下文模型之后待编码子节点的占位码进行熵编码,得到二进制码流。相比于现有技术,本发明实施例提供的一种点云几何信息编码方法利用相邻空间中点云点之间几何的相关性,可以提升点云几何信息的编码性能。

    一种点云几何信息帧间编码及解码方法

    公开(公告)号:CN112565764A

    公开(公告)日:2021-03-26

    申请号:CN202011396370.3

    申请日:2020-12-03

    Abstract: 本发明实施例提供的一种点云几何信息帧间编码及解码方法,获取当前帧点云前的帧点云作为参考帧点云;对当前帧点云及参考帧点云分别进行八叉树划分然后对划分后的节点进行划分,迭代划分到叶子节点结束得到当前帧点云的第一八叉树结构及参考帧点云的第二八叉树结构;获取每个参考节点的占位情况,当与编码节点对应的参考节点的占位情况为被占据时,获取参考节点的第一邻居节点的占位情况;基于占位情况确定待编码节点占位码的上下文模型并按该上下文模型进行熵编码,获得二进制码流。本发明在帧间预测为占据时用帧间的上下文模型进行熵编码,否则用帧内的上下文模型进行熵编码无需运动补偿,因此可以降低帧间编解码复杂度并提高几何熵编码性能。

    一种光场相机相对位姿估计方法

    公开(公告)号:CN111739068A

    公开(公告)日:2020-10-02

    申请号:CN202010373721.2

    申请日:2020-05-06

    Abstract: 本发明公开了一种光场相机相对位姿估计方法,包括:获得同一场景在第一光场下的第一原始图像和在第二光场下的第二原始图像;获取第一原始图像任一角度的子孔径图像的第一特征点坐标数据和第二原始图像同一角度的子孔径图像的第二特征点坐标数据;根据第一特征点数据和第一光场深度参数获得第一原始图像的第一光场点数据,根据第二特征点数据和第二光场深度参数获得第二原始图像的第二光场点数据;建立第一光场点数据和第二光场点数据中对应光场点的线性约束公式;根据线性约束公式获取光场相机相对位姿。该方法根据光场相机的特性建立光场间的约束模型,以估计光场相机的相对位姿,具有更高的鲁棒性和准确性。

    用于多视点深度视频编码的拉格朗日乘子修正方法

    公开(公告)号:CN106028046B

    公开(公告)日:2018-11-20

    申请号:CN201610517428.2

    申请日:2016-07-04

    Abstract: 本发明公开了一种用于多视点深度图编码的拉格朗日乘子修正方法,主要解决现有技术中没有考虑到同视点纹理质量对深度图拉格朗日乘子的影响,而导致3D视频的整体编码性能不高的问题。其实现方案是:在多视点深度视频编码前,根据待编码深度视频的量化参数Qd以及同视点纹理视频编码所采用的量化参数Qt,构建修正因子;用该修正因子对现有深度编码所采用的拉格朗日乘子进行修正;将修正后的拉格朗日乘子用于深度图编码的率失真优化过程中。本发明提升了3D视频的整体编码性能,可用于对任意纹理和深度量化参数QP组合方式的3D视频进行编码。

    用于多视点深度视频编码的虚拟视点合成失真预测方法

    公开(公告)号:CN106331728A

    公开(公告)日:2017-01-11

    申请号:CN201610802308.7

    申请日:2016-09-06

    CPC classification number: H04N19/597 H04N13/161

    Abstract: 本发明公开了一种用于多视点深度视频编码的虚拟视点合成失真预测方法,主要解决现有技术合成失真计算复杂度高、预测不准确的问题。其实现步骤是:1)构建像素级虚拟视点合成失真预测模型;2)获得当前深度编码块的数据块信息;3)利用数据块信息估计由深度图失真所导致的第一合成误差D1,以及由纹理图失真所导致的第二合成误差D2;4)将两个合成误差带入1)构建的合成失真模型,得到像素级合成失真预测值;6)对当前编码深度块所有像素点的合成失真预测值求和,得到虚拟视点合成失真值。本发明减少了预测复杂度,提高了合成失真估计准确性,改善了3D视频的整体编码性能,可用于对任意纹理和深度量化参数QP组合方式的3D视频进行编码。

    一种自由视点视频深度图编码的渐进式率失真优化方法

    公开(公告)号:CN105141956A

    公开(公告)日:2015-12-09

    申请号:CN201510481056.8

    申请日:2015-08-03

    Abstract: 本发明涉及一种自由视点视频深度图编码的渐进式率失真优化方法,其包括以下步骤:(1)、对深度图块采用某一编码模式试编码后得到比特数代价,如果大于最小率失真代价Jmin,则淘汰此模式,反之进入步骤(2),(2)、计算出深度图块的失真,加权后与比特数代价相加得到临时率失真代价,如果大于Jmin,则淘汰此模式,反之进入步骤(3),(3)、进入合成虚拟视点循环,每得到一个虚拟视点的失真,加权后与已有的率失真代价相加,如果大于Jmin,则终止此模式的率失真代价计算,否则继续计算下一个虚拟视点的失真,(4)、若虚拟视点全部合成完毕,所得失真大于Jmin,则淘汰此模式,反之则将此模式选为最佳模式。

    基于模型的纹理视频与深度图的最优码率分配方法

    公开(公告)号:CN101835056B

    公开(公告)日:2011-12-07

    申请号:CN201010161550.3

    申请日:2010-04-29

    Abstract: 本发明公开了一种基于模型的纹理视频与深度图的最优码率分配方法,主要解决三维立体视频编码中的纹理视频与深度图的码率分配问题。其方案是:确定虚拟视图失真与纹理视频的量化步长、深度图的量化步长之间的关系;利用纹理视频的编码码率与纹理视频量化步长的关系、深度图的编码码率与深度图量化步长的关系,计算最优的纹理视频量化步长与最优的深度图的量化步长;并以最优的纹理视频量化步长和最优的深度图量化步长分别对纹理视频与深度图编码,实现纹理视频与深度图的最优码率分配。本发明具有复杂度低,且能使纹理视频与深度图的码率分配达到最优的优点,可用于三维立体视频编码中的纹理视频与深度图码率分配。

Patent Agency Ranking