一种基于多尺度DCT变换的立体图像舒适度预测方法

    公开(公告)号:CN109510981A

    公开(公告)日:2019-03-22

    申请号:CN201910063073.8

    申请日:2019-01-23

    Abstract: 本发明涉及视频图像处理技术领域,公开了一种基于多尺度DCT变换的立体图像舒适度预测方法,包括以下步骤:步骤S01:对视差图做若干尺度的块分割并进行二维DCT变换得到每个块的DCT变换结果;步骤S02:对DCT变换结果进行特征提取;步骤S03:将特征提取的结果归一化至一个相同的动态范围内;步骤S04:将归一化后的结果输入至随机森林算法,得出结果。本发明提出的模型预测结果与主观评价结果具有很好的相关性,可以较为准确的反映出立体图像的观看舒适度。该舒适度预测模型可以直接应用在3D图像或视频等质量预测与改善等工程中。

    一种基于人眼感知的立体视频B帧错误隐藏方法

    公开(公告)号:CN108668135A

    公开(公告)日:2018-10-16

    申请号:CN201810326867.4

    申请日:2018-04-12

    Abstract: 本发明一种基于人眼感知的立体视频B帧错误隐藏方法。传统的错误隐藏技术对于新标准HEVC,以及扩展的多视点的新标准MV-HEVC不能很好适应。本发明方法首先对立体视频中的丢失块划分为静止块和运动块,然后对不同的丢失块类型采用不同的恢复方式,静止块选择直接拷贝的方式;对运动块使用基于双目恰可察觉失真模型的立体视频错误隐藏算法进行恢复,具体是:首先自适应尺寸划分,然后建立候选运动/视差矢量集,计算基于BJND模型匹配准则值,最后选择最优运动矢量恢复。本发明方法除了结合了新标准的特性并改进了已有错误隐藏方法之外,还考虑了人眼对于视频画面的失真度特性,对立体视频在网络传输中发生的网络丢包现象有很好的恢复效果。

    一种基于颜色混合模型和多特征组合的视频烟雾检测方法

    公开(公告)号:CN106339664A

    公开(公告)日:2017-01-18

    申请号:CN201610657250.1

    申请日:2016-08-10

    CPC classification number: G06K9/00718 G06K2009/00738

    Abstract: 本发明涉及一种基于颜色混合模型和多特征组合的视频烟雾检测方法。现有方法对于复杂情况下的烟雾检测存在较高的误检率。本发明方法包括:疑似烟雾区域提取,对视频帧获取疑似烟雾运动区域,疑似烟雾颜色区域;将疑似烟雾运动区域及疑似烟雾颜色区域进行结合获取疑似烟雾区域;烟雾特征识别,根据运动速度均值与方差、烟雾的运动方向、烟雾面积增长率对疑似烟雾区域进行烟雾识别。本发明方法对疑似烟雾区域中的假烟雾区域进行进一步剔除,有效避免了干扰区域对烟雾检测的影响,具有较高的检测成功率。

    一种基于双目多维感知特性的立体视频显著性检测方法

    公开(公告)号:CN105898278A

    公开(公告)日:2016-08-24

    申请号:CN201610363021.9

    申请日:2016-05-26

    CPC classification number: H04N13/00 H04N13/366 H04N17/00 H04N2013/0081

    Abstract: 本发明涉及一种基于双目多维感知特性的立体视频显著性检测方法。传统模型方法无法有效的检测出立体视频的显著区域。本发明方法包括显著特征提取和显著特征融合。显著特征提取是从立体视频的空间、深度以及运动三个不同维度的视图信息分别进行显著性计算,包括二维静态显著区域检测、深度显著区域检测、运动显著区域检测。显著特征融合是将已获取的三种不同维度的显著特征图采取全局非线性归一化的融合策略进行融合,进而获取立体视频显著区域。本发明方法计算复杂度低,获取的立体视频显著图质量高,可以直接应用在3D视频压缩,3D质量评估以及物体识别和追踪等工程领域中。

    一种基于DSP的实时视频拼接方法

    公开(公告)号:CN115131209B

    公开(公告)日:2025-04-18

    申请号:CN202210740614.8

    申请日:2022-06-28

    Abstract: 本发明属于图像处理领域,公开了一种基于DSP的实时视频拼接方法,采用select操作方式定向选择数据,借助gather和scatter指令将不连续RAM地址中的数据加载到向量寄存器中;图像配准算法部分:在匹配前设定阈值预筛选特征点,基于汉明距离进行特征点匹配。算法均使用SIMD指令集并行处理多数据,提高计算效率;采用PING‑PONG方式传输数据,旨在隐藏视频拼接过程中外部存储器访问的周期,从而有效提高数据吞吐量。最后,基于DAG生成算法调度表,在双DSP平台上并行执行ORB特征提取算法。本发明减少了计算复杂度;并为计算机视觉相关的算法在DSP平台上研究提供了参考。

    基于双向分离相关量的全景视频插帧方法

    公开(公告)号:CN119449979A

    公开(公告)日:2025-02-14

    申请号:CN202411264570.1

    申请日:2024-09-10

    Abstract: 本发明公开了一种基于双向分离相关量的全景视频插帧方法。本发明方法首先提取输入图像的外观特征和相关量特征,然后利用相关量特征进行成本聚合获得初始光流,对初始光流进行迭代更新得到细化光流、最终特征值、掩膜和残差信息,最后对各信息进行融合,得到插帧图像。本发明采用了成本聚合的方法来分离生成的相关量,更有效地处理全景视频中存在的运动各向异性和运动分布的不均匀的特殊问题,有效地解决因不同维度投影的采样率差异所造成的伪影和估计不准确的问题。本发明更好地适应不同纬度上的运动幅度差异所引起的运动查询误差,进而提高光流预测的精度,并最终获得质量更高的中间帧。

    Transformer与CNN相结合的视频插帧方法

    公开(公告)号:CN118828058A

    公开(公告)日:2024-10-22

    申请号:CN202410708537.7

    申请日:2024-06-03

    Abstract: 本发明公开了Transformer与CNN相结合的视频插帧方法。本发明的网络结构包括特征提取网络、光流估计网络和融合与细化网络。特征提取网络不同阶段的输出作为不同尺度的特征,光流估计网络通过对前后两帧视频图像进行特征提取和运动估计,生成前后两帧到中间帧的双向光流信息,融合与细化网络输入为特征提取网络提取的不同阶段的特征信息、光流估计网络生成的输出光流,输出为一张掩膜图像以及一副残差图像。原始图像经过光流的绘制,再通过掩膜做加权最后加上残差图像,输出最终的插帧图像。本发明通过Transformer模型与CNN网络相结合,能够从整个图像范围内提取丰富的语义信息,并有效地捕捉帧间的运动关系。

    结合时空特征优化的多尺度视频插帧方法

    公开(公告)号:CN118646912A

    公开(公告)日:2024-09-13

    申请号:CN202410661885.3

    申请日:2024-05-27

    Abstract: 本发明属于视频处理技术领域,公开了一种结合时空特征优化的多尺度视频插帧方法,首先通过多尺度特征编码完成不同感受野的运动特征提取,接着利用注意力机制增强输入特征之间的时空依赖性,然后在解码阶段加入时间特征实现任意时刻的中间帧运动估计。采用迭代解码端的方式合成不同时刻的中间帧。最后,将生成的所有结果通过时空优化模块共同优化,进一步捕获多个中间帧之间时空上的关联,保证多倍视频插帧结果的整体一致和连贯性。本发明方法利用重建损失、中间特征损失和感知损失联合优化,有效地解决视频插帧中大尺度运动场景预测不准确的问题,得到更逼真的中间帧。

Patent Agency Ranking