一种新型立体图像舒适度预测方法

    公开(公告)号:CN111696076B

    公开(公告)日:2023-07-07

    申请号:CN202010377994.4

    申请日:2020-05-07

    Abstract: 本发明公开了一种新型立体图像舒适度预测方法,包括以下步骤:从彩色图提取亮度矩特征和色度矩特征;对彩色图进行小波变换,提取结构复杂度特征;对视差图进行小波变换,提取多层视差幅值和多方向视差纹理特征;利用GBRT渐进梯度回归树进行舒适度预测获得立体图像舒适度得分。上述技术方案通过将彩色图和视差图进行小波变换,从两层小波系数中获得更丰富的图像信息,并且具有良好的空间性,从不同方向的细节信息提取不适特征,更详细地描述不适特征并进行舒适度预测。

    基于K-means模型的双视点立体视频融合方法

    公开(公告)号:CN113179396B

    公开(公告)日:2022-11-11

    申请号:CN202110295931.9

    申请日:2021-03-19

    Abstract: 本发明方法公开了基于K‑means模型的双视点立体视频融合方法。本发明方法首先对左、右视点深度图进行预处理,得到左、右视点深度图像;然后分别对左、右视点深度图像运用K‑means方法进行分割,对分割后的前景和背景区域深度图像进行三维投射运算,得到左、右视点的前景和背景绘制图像;以前景绘制图像为蓝本,用背景绘制图像填充前景绘制图像的空缺区域,将填充后的左、右视点绘制图像进行图像融合,获得虚拟视点绘制图像;最后将虚拟视点绘制图像的空洞区域根据空洞周围的像素信息进行加权填充,获得最终输出图像。本发明方法采用像素级别的操作,对空洞区域进行精准处理,使绘制效果在视觉效果上更加优质,更加协和。

    一种基于显著性的立体三维视频错误隐藏方法

    公开(公告)号:CN111770346B

    公开(公告)日:2022-09-30

    申请号:CN202010523987.0

    申请日:2020-06-10

    Abstract: 本发明公开了一种基于显著性的立体三维视频错误隐藏方法。传统的错误隐藏技术在视频流在传输过程中发生整帧丢失时恢复效果差。本发明方法首先获取丢失帧的运动显著性图、深度显著性图,深度边缘显著性图,然后融合运动显著性图和深度显著性图并块化,再与深度边缘显著性图合并得到最终显著性图,并进行显著等级划分。对高显著等级的区域采用视点间搜索像素填补和候选运动矢量补偿恢复,对中显著等级的区域采用时域搜索像素填补和视点间搜索像素填补,对低显著等级区域采用时域帧像素拷贝填补。本发明方法除了结合3D—HEVC特性提出新的错误隐藏方法,考虑了视频画面的显著性,对立体视频在网络传输中发生的整帧丢失现象有很好的恢复效果。

    一种基于多尺度空间视差信息的立体视频舒适度预测方法

    公开(公告)号:CN111526354B

    公开(公告)日:2021-08-20

    申请号:CN201911165762.6

    申请日:2019-11-25

    Abstract: 本发明公开了一种基于多尺度空间视差信息的立体视频舒适度预测方法,包括以下步骤:从立体视频每帧的不同尺度视差信息提取尺度空间域特征与尺度空间流特征;建立尺度空间域特征与尺度空间流特征权重关系得到立体视频每帧输入特征;利用SVR进行单帧舒适度预测并采用时间中值池化策略得到立体视频舒适度得分。上述方法在不同尺度空间提取特征,并将不同尺度空间特征进行融合,建立不同特征的权重关系,有效体现每个尺度的时间流视差特征对舒适度预测的贡献,有效体现每个尺度的时间流视差特征对舒适度预测的贡献,对立体视频视觉舒适度进行更准确的预测。

    一种基于显著性的立体三维视频错误隐藏方法

    公开(公告)号:CN111770346A

    公开(公告)日:2020-10-13

    申请号:CN202010523987.0

    申请日:2020-06-10

    Abstract: 本发明公开了一种基于显著性的立体三维视频错误隐藏方法。传统的错误隐藏技术在视频流在传输过程中发生整帧丢失时恢复效果差。本发明方法首先获取丢失帧的运动显著性图、深度显著性图,深度边缘显著性图,然后融合运动显著性图和深度显著性图并块化,再与深度边缘显著性图合并得到最终显著性图,并进行显著等级划分。对高显著等级的区域采用视点间搜索像素填补和候选运动矢量补偿恢复,对中显著等级的区域采用时域搜索像素填补和视点间搜索像素填补,对低显著等级区域采用时域帧像素拷贝填补。本发明方法除了结合3D—HEVC特性提出新的错误隐藏方法,考虑了视频画面的显著性,对立体视频在网络传输中发生的整帧丢失现象有很好的恢复效果。

    一种基于多尺度空间视差信息的立体视频舒适度预测方法

    公开(公告)号:CN111526354A

    公开(公告)日:2020-08-11

    申请号:CN201911165762.6

    申请日:2019-11-25

    Abstract: 本发明公开了一种基于多尺度空间视差信息的立体视频舒适度预测方法,包括以下步骤:从立体视频每帧的不同尺度视差信息提取尺度空间域特征与尺度空间流特征;建立尺度空间域特征与尺度空间流特征权重关系得到立体视频每帧输入特征;利用SVR进行单帧舒适度预测并采用时间中值池化策略得到立体视频舒适度得分。上述方法在不同尺度空间提取特征,并将不同尺度空间特征进行融合,建立不同特征的权重关系,有效体现每个尺度的时间流视差特征对舒适度预测的贡献,有效体现每个尺度的时间流视差特征对舒适度预测的贡献,对立体视频视觉舒适度进行更准确的预测。

    一种面向小数据集的非局部自适应多视方法及系统

    公开(公告)号:CN113192020A

    公开(公告)日:2021-07-30

    申请号:CN202110455635.0

    申请日:2021-04-26

    Abstract: 本发明公开了一种面向小数据集的非局部自适应多视方法及系统。面向小数据集的自适应多视方法,包括以下步骤:S1.对于经过配准、非相干平均等预处理的时序SAR影像,基于幅度均值图像,采用无监督的灰度级方法进行图像分割;S2.基于图像分割结果和时间维幅度向量间的L1范数,自适应构建联合数据向量;S3.对于构建的联合数据向量,首先剔除联合数据向量中的异常值,然后采用AD检验方法选取SHP集合;S4.基于选取的SHP集合,自适应地估计相干系数及降噪处理。本发明同时考虑了空间维和时间维两个维度的信息,可以在影响数目较小的情况下,选取到可靠的SHP集合,从而可以自适应地估计相干系数和干涉相位图降噪。

    一种新型立体图像舒适度预测方法

    公开(公告)号:CN111696076A

    公开(公告)日:2020-09-22

    申请号:CN202010377994.4

    申请日:2020-05-07

    Abstract: 本发明公开了一种新型立体图像舒适度预测方法,包括以下步骤:从彩色图提取亮度矩特征和色度矩特征;对彩色图进行小波变换,提取结构复杂度特征;对视差图进行小波变换,提取多层视差幅值和多方向视差纹理特征;利用GBRT渐进梯度回归树进行舒适度预测获得立体图像舒适度得分。上述技术方案通过将彩色图和视差图进行小波变换,从两层小波系数中获得更丰富的图像信息,并且具有良好的空间性,从不同方向的细节信息提取不适特征,更详细地描述不适特征并进行舒适度预测。

    一种新型的图像绘制技术

    公开(公告)号:CN111405265A

    公开(公告)日:2020-07-10

    申请号:CN202010214373.4

    申请日:2020-03-24

    Abstract: 本发明公开了一种新型的图像绘制技术,包括以下步骤:3D图像变换;利用图像之间的深度差值来划分绘制不准确区域;设置图像的前景阈值和背景阈值;处理空洞。上述技术方案利用图像之间的深度差值来划分绘制不准确区域,根据图像的实际情况将图像中视觉冲击最明显的区域中的破损区域重新进行绘制,从而让图像的绘制区域变得更加清晰,减少最后一步填充空洞时空洞的个数,从而降低时间复杂度。

    一种新型的图像绘制技术

    公开(公告)号:CN111405265B

    公开(公告)日:2021-09-17

    申请号:CN202010214373.4

    申请日:2020-03-24

    Abstract: 本发明公开了一种新型的图像绘制技术,包括以下步骤:3D图像变换;利用图像之间的深度差值来划分绘制不准确区域;设置图像的前景阈值和背景阈值;处理空洞。上述技术方案利用图像之间的深度差值来划分绘制不准确区域,根据图像的实际情况将图像中视觉冲击最明显的区域中的破损区域重新进行绘制,从而让图像的绘制区域变得更加清晰,减少最后一步填充空洞时空洞的个数,从而降低时间复杂度。

Patent Agency Ranking