一种多视点视频编码中分量间的运动参数继承方法

    公开(公告)号:CN104469387B

    公开(公告)日:2017-11-03

    申请号:CN201410777486.X

    申请日:2014-12-15

    Abstract: 一种多视点视频编码中分量间的运动参数继承方法,涉及多视点视频编码领域。本发明是为了提升多视点视频的编码性能,减少多视点视频的传输带宽和存储空间。对于处于依赖视点中的当前块,获取所述当前块相对于视间参考帧的视差矢量;根据求出的所述视差矢量定位到当前块在视间参考帧中的对应块,用视间对应块中已经编码的运动信息预测当前块的运动信息;编码深度图时,用对应纹理图中与当前深度块具有相同位置的对应纹理块的运动信息预测当前深度块的运动信息。利用视间相关性提出视点间的运动参数继承方法,增强依赖视点的编码性能;利用深度图和对应纹理图间的相关性提出深度‑纹理间的运动参数继承方法,增强深度信息的编码性能。有效提高多视点视频的编码效率。

    混合视频编码标准中帧间预测方法

    公开(公告)号:CN104539967B

    公开(公告)日:2017-07-28

    申请号:CN201510020490.6

    申请日:2015-01-15

    Abstract: 混合视频编码标准中帧间预测方法,属于视频编码领域。为了解决如何在现有加权预测方案中增强鲁棒性的问题。一种混合视频编码标准中帧间预测方法,通过以下步骤实现:选定当前块,获取当前块的时域对应块作为当前块的预测块,选取当前块的空域邻近像素和时域对应块的空域邻近像素利用线性加权预测模型:y=ax+b,求出当前块的加权预测参数:加权因子a和附加的偏移b;式中,y表示当前块的空域邻近像素,x表示时域对应块的空域邻近像素;根据求出的加权因子a和附加的偏移b,利用步骤一的线性加权预测模型对预测块中的预测像素值进行处理,使处理后预测块与当前块接近;利用获得的处理后的预测块进行帧间预测。

    混合视频编码标准中帧内预测方法

    公开(公告)号:CN105491390A

    公开(公告)日:2016-04-13

    申请号:CN201510861669.4

    申请日:2015-11-30

    Abstract: 混合视频编码标准中的帧内预测方法,属于视频编码领域。本发明的目的是为了有效地处理视频序列中存在的复杂块,如由于物体或者摄像机运动导致的视频模糊,多方向的复杂块等,而提出一种混合视频编码标准中帧内预测方法,以进一步提升视频编码的性能。该帧内预测方法,利用两个不同的预测模式来得到两个不同的预测值。通过对这两个预测值进行加权得到当前编码块的一个新的预测。获取当前编码块的周围若干个相邻已编码块的帧内编码模式信息,选择其中一个模式为模式一;在模式一的基础上,选择另外一个帧内模式为模式二。利用两个不同预测模式合成的预测值,能够处理视频序列中的复杂块,从而使得编码效率得到进一步提高。

    一种多视点视频编码中的视差矢量获取方法

    公开(公告)号:CN104394417A

    公开(公告)日:2015-03-04

    申请号:CN201410777487.4

    申请日:2014-12-15

    Abstract: 一种多视点视频编码中的视差矢量获取方法,本发明涉及视差矢量获取方法。本发明解决解决依赖于当前帧中的当前块的空域邻近块,影响编码过程中的并行性以及得到的当前块的预测信息不够准确的问题而提出的一种多视点视频编码标准中的视差矢量获取方法。该方法是通过一、划分为L*W单元区域;二、划分为l*w的单元;三、利用视差矢量的均值、中值、最大值、最小值或者加权平均值获取L*W的单元区域的视差矢量;四、预测当前块的运动矢量;五、得到视间参考帧对应的视差信息;六、将步骤三获取的L*W单元区域的视差矢量用于加权模式中得到视间参考帧对应的视差信息;七、得到当前块的像素值等步骤实现的。本发明应用于视差矢量获取领域。

    城市三维模型的构建方法、设备及存储介质

    公开(公告)号:CN119919597A

    公开(公告)日:2025-05-02

    申请号:CN202411778958.3

    申请日:2024-12-05

    Abstract: 本申请公开了一种城市三维模型的构建方法、设备及存储介质,涉及模型构造技术领域,构建方法包括:获取城市的建筑点云和预设处理参数;基于邻域半径确定建筑点云中每个点云数据的法线方向;基于法线方向将建筑点云中的点云数据划分为垂直点云和非垂直点云,确定垂直点云对应的多个第一平面区域,并基于非垂直点云在第一平面区域的投影确定建筑足迹信息;基于投影在第一平面区域内的非垂直点云的高度生成建筑轮廓信息;对点云数据进行滤波处理,并将滤波处理后的滤波点云划分为墙面点云和屋顶点云,基于墙面点云和屋顶点云对三维空间进行空间划分,得到建筑表面信息。本申请能够提高城市三维模型的精确度。

    交通事件监测方法及系统
    26.
    发明公开

    公开(公告)号:CN118865278A

    公开(公告)日:2024-10-29

    申请号:CN202410884742.9

    申请日:2024-07-03

    Inventor: 李明 范晓鹏

    Abstract: 交通事件监测方法及系统,涉及视觉识别和人工智能技术领域。为解决现有技术中存在的,现有的交通事件监测算法样本标注复杂、无法在线训练和优化提升的技术问题,本发明提供的技术方案为:模型训练方法,包括:采集待分析的视频流;实时标记待分析的视频流中,异常事件所在视频帧;发送异常事件告警信息;采集告警信息反馈数据;根据告警信息反馈数据,结合对应的异常事件告警信息,对监测模型进行优化训练。系统包括用于配置视频流和异常事件的系统配置管理模块;用于采集视频流的视频接入模块;用于分析异常事件的事件监测分析模块;用于发送异常事件告警信息,并响应反馈数据的告警管理模块。可以用于在线进化的交通事件监测的工作中。

    一种联合感知噪声和几何特性的Mesh网格滤波方法

    公开(公告)号:CN118840273A

    公开(公告)日:2024-10-25

    申请号:CN202410951668.8

    申请日:2024-07-16

    Abstract: 本发明公开了一种联合感知噪声和几何特性的Mesh网格滤波方法,所述方法包括如下步骤:步骤一、设计滤波系数学习器;步骤二、计算平均滤波角;步骤三、噪声强度估计;步骤四、几何特征提取;步骤五、系数生成和顶点更新。本发明巧妙地生成系数来滤波面法线,根据噪声强度和几何特征动态学习系数,它不依赖于任何特定的假设,实现了改进的性能和更稳健的去噪结果;设计了一个噪声强度模块,通过预测成对噪声干净法线之间的角度,推导出滤波系数的噪声感知分量;开发了一个几何描述模块来捕获全面的几何特征,以生成滤波系数的几何感知分量。

    一种基于大核注意力与混合可变形专家网络的视频去模糊方法

    公开(公告)号:CN118247172A

    公开(公告)日:2024-06-25

    申请号:CN202410253369.7

    申请日:2024-03-06

    Abstract: 本发明提出了一种基于大核注意力与混合可变形专家网络的视频去模糊方法,属于视频去模糊技术领域;所述方法通过设计大核注意力骨干网络以更高效方式执行特征编码和解码,并设计了混合可变形专家通过在特征解码阶段各个专家之间的光流更新获得更精确地光流引导执行帧间对齐以便于更好地利用清晰帧;本发明区别于以往的视频去模糊网络,采用大核卷积和全局注意力设计,一方面大核卷积可以有效拓展传统卷积的感受野,另一方面注意力使网络能够捕获长距依赖关系;区别于以往的去模糊帧间对齐方法,通过共享一个额外的光流更新网络在多个可变形专家模型之间更新光流,利用更精确的光流执行帧间对齐。

    一种基于背景建模的全景视频编码方法及其系统

    公开(公告)号:CN118018753A

    公开(公告)日:2024-05-10

    申请号:CN202410005034.3

    申请日:2024-01-02

    Abstract: 一种基于背景建模的全景视频编码方法及其系统,涉及视频编码技术领域。提升现有的全景视频编码框架在背景变化不明显的场景下编码的效率和性能,并提高视口预测的效率,为全景视频的高质量传输提供帮助。方法为:对视频序列进行背景建模,生成背景图像;将所述背景图像作为帧间预测的长期参考帧,分别对图像进行高质量编码和低质量编码;采用所述背景图像和边缘信息进行运动物体检测,确定感兴趣区域,根据所述感兴趣区域预测未来的视口区域;根据预测的结果采用所述高质量编码的码流将视口区域进行传输;根据预测的结果采用所述低质量编码的码流将非视口区域进行传输。本发明适用于全景视频的编码。

    一种全景视频显著性预测方法及其系统

    公开(公告)号:CN117998093A

    公开(公告)日:2024-05-07

    申请号:CN202410118522.5

    申请日:2024-01-29

    Abstract: 一种全景视频显著性预测方法及其系统,涉及全景视频显著性预测技术领域。解决现有全景视频显著性预测方法,普遍存在对视频特征提取能力不够,程序运行速度慢,预测显著性图准确度不高的问题。方法为:先提取出全景视频的视频帧并分别沿时间序列正向排列和反向排列;采用编码器分别处理正向排列和反向排列的视频帧序列,分别获得所有正向排列和反向排列帧的全局时空特征;采用解码器分别处理正向视频帧的全局时空特征和反向视频帧的全局时空特征,并将分别获得的显著性信息进行叠加,将叠加后的显著性图通过后处理模块和多种高斯先验特征结合,产生更符合人眼观察偏置的显著性图。本发明适用于全景视频中的显著性预测。

Patent Agency Ranking