一种基于多模态联合感知的三维点云数据补全方法

    公开(公告)号:CN119206149B

    公开(公告)日:2025-04-01

    申请号:CN202411256034.7

    申请日:2024-09-09

    Abstract: 一种基于多模态联合感知的三维点云数据补全方法,属于点云补全技术领域。方法如下:采用CLIP视觉大模型提取图像特征;提取点云特征;综合利用图像特征与点云特征生成形状潜码指导扩散模型生成初始点云。拼接初始点云与不完整输入点云后最远点采样得到过程点云;基于非局部相似性生成过程点云坐标偏移;利用掩码机制调整偏移,处理过程点云中的高质量点和低质量点,得到补全的高质量点云。本发明提出了基于扩散模型完成跨模态的形状融合,同时利用视觉大模型提取的图像特征与点云特征生成形状潜码指导扩散模型,实现了图像域到点云域的转移;基于非局部相似性利用掩码机制生成坐标偏移,实现了跨层级细化粗糙输出,生成更高质量的点云。

    一种针对数据幅值范围已知的数据流进行编码的方法

    公开(公告)号:CN109672690B

    公开(公告)日:2021-02-19

    申请号:CN201910085839.2

    申请日:2019-01-29

    Abstract: 本发明提出一种针对数据幅值范围已知的数据流进行编码的方法。所述方法包括数据流的统计分布、子集划分设计、实际编码和实际解码步骤。本发明的子集编码方法可以有效编码已知幅值范围的数据流,相比现有方法可以较大程度提高编码性能,并且具有较低的编码复杂度,是一个实际可用的编码方法。并且本方法的应用范围不限于已知幅值范围已知的数据流,在编码幅值范围不确定的数据流时,也可以与现有编码方法结合使用,应用前景广阔。

    一种针对数据幅值范围已知的数据流进行编码的方法

    公开(公告)号:CN109672690A

    公开(公告)日:2019-04-23

    申请号:CN201910085839.2

    申请日:2019-01-29

    CPC classification number: H04L69/04 H04L65/607

    Abstract: 本发明提出一种针对数据幅值范围已知的数据流进行编码的方法。所述方法包括数据流的统计分布、子集划分设计、实际编码和实际解码步骤。本发明的子集编码方法可以有效编码已知幅值范围的数据流,相比现有方法可以较大程度提高编码性能,并且具有较低的编码复杂度,是一个实际可用的编码方法。并且本方法的应用范围不限于已知幅值范围已知的数据流,在编码幅值范围不确定的数据流时,也可以与现有编码方法结合使用,应用前景广阔。

    混合视频编码标准中色度分量预测方法

    公开(公告)号:CN105306944B

    公开(公告)日:2018-07-06

    申请号:CN201510861687.2

    申请日:2015-11-30

    Abstract: 混合视频编码标准中色度分量预测方法,属于视频编码领域。本发明的目的是为了有效的去除视频中色度分量与亮度分量以及色度分量之间的相关性,而提出一种混合视频编码标准中色度分量预测方法,以进一步提升视频编码的性能。在通过线性模型进行色度分量预测时,利用当前编码块周围重建的像素点来计算线性模式的参数;在进行参数计算时,增加周围有效像素点,移除周围不可用的像素点;根据得到的参数,对于Cb色度分量,通过已重建的亮度分量Y对其进行预测;而对于Cr色度分量,通过已重建的亮度分量Y和已重建的色度分量Cb对其进行预测。本发明通过块周围有效的像素点计算模型参数,以及通过亮度分量Y和色度分量Cb自适应地对色度分量Cr进行预测,使得编码效率得到进一步提高。

    一种多视点视频编码中的视差矢量获取方法

    公开(公告)号:CN104394417B

    公开(公告)日:2017-07-28

    申请号:CN201410777487.4

    申请日:2014-12-15

    Abstract: 一种多视点视频编码中的视差矢量获取方法,本发明涉及视差矢量获取方法。本发明解决依赖于当前帧中的当前块的空域邻近块,影响编码过程中的并行性以及得到的当前块的预测信息不够准确的问题而提出的一种多视点视频编码标准中的视差矢量获取方法。该方法是通过一、划分为L*W单元区域;二、划分为l*w的单元;三、利用视差矢量的均值、中值、最大值、最小值或者加权平均值获取L*W的单元区域的视差矢量;四、预测当前块的运动矢量;五、得到视间参考帧对应的视差信息;六、将步骤三获取的L*W单元区域的视差矢量用于加权模式中得到视间参考帧对应的视差信息;七、得到当前块的像素值。本发明应用于视差矢量获取领域。

    视频压缩中变换系数的上下文建模方法

    公开(公告)号:CN105141966A

    公开(公告)日:2015-12-09

    申请号:CN201510547323.7

    申请日:2015-08-31

    Abstract: 视频压缩中变换系数的上下文建模方法,本发明涉及变换系数的上下文建模技术。本发明是为了解决HEVC中所采用的上下文建模技术不能准确地预测变换系数的统计特性的问题。本发明在当前变换系数为bin0、bin1或bin2的上下文建模过程,使用了当前变换系数的位置信息和当前变换系数的局部模板中非零变换系数信息,同时还利用变换系数在编码组内的位置对亮度分量的变换系数块的编码组进行划分,利用变换系数在变换系数块内的位置对色度分量的变换系数块进行划分,最终实现上下文建模。本发明更加准确地预测变换系数的统计特性,提高了变换系数的压缩效率。本发明应用于视频编码领域。

    一种基于多模态联合感知的三维点云数据补全方法

    公开(公告)号:CN119206149A

    公开(公告)日:2024-12-27

    申请号:CN202411256034.7

    申请日:2024-09-09

    Abstract: 一种基于多模态联合感知的三维点云数据补全方法,属于点云补全技术领域。方法如下:采用CLIP视觉大模型提取图像特征;提取点云特征;综合利用图像特征与点云特征生成形状潜码指导扩散模型生成初始点云。拼接初始点云与不完整输入点云后最远点采样得到过程点云;基于非局部相似性生成过程点云坐标偏移;利用掩码机制调整偏移,处理过程点云中的高质量点和低质量点,得到补全的高质量点云。本发明提出了基于扩散模型完成跨模态的形状融合,同时利用视觉大模型提取的图像特征与点云特征生成形状潜码指导扩散模型,实现了图像域到点云域的转移;基于非局部相似性利用掩码机制生成坐标偏移,实现了跨层级细化粗糙输出,生成更高质量的点云。

    一种基于深度神经网络的帧间预测方法

    公开(公告)号:CN108833925B

    公开(公告)日:2020-09-11

    申请号:CN201810798399.0

    申请日:2018-07-19

    Abstract: 本发明提出了一种混合视频编解码系统中基于深度神经网络的帧间预测方法,属于帧间预测技术领域。所述方法通过借助当前块和参考块的周围相邻像素,利用深度神经网络获得一个更准确的预测块,从而使帧间预测性能得到提升。本发明的有益特点为,区别于基于传统帧间预测方法,本发明是基于深度神经网络的方法;区别于现有的仅针对于混合视频编解码系统中图像块本身作为输入的深度神经网络方法,本发明的深度神经网络输入是多个输入,包含非方形区域,这是区别于普通卷积神经网络的贡献所在。

    一种混合视频编解码系统中基于深度神经网络的帧间预测方法

    公开(公告)号:CN108833925A

    公开(公告)日:2018-11-16

    申请号:CN201810798399.0

    申请日:2018-07-19

    Abstract: 本发明提出了一种混合视频编解码系统中基于深度神经网络的帧间预测方法,属于帧间预测技术领域。所述方法通过借助当前块和参考块的周围相邻像素,利用深度神经网络获得一个更准确的预测块,从而使帧间预测性能得到提升。本发明的有益特点为,区别于基于传统帧间预测方法,本发明是基于深度神经网络的方法;区别于现有的仅针对于混合视频编解码系统中图像块本身作为输入的深度神经网络方法,本发明的深度神经网络输入是多个输入,包含非方形区域,这是区别于普通卷积神经网络的贡献所在。

Patent Agency Ranking