一种基于自回归模型的任意比例图像插值方法

    公开(公告)号:CN103854254A

    公开(公告)日:2014-06-11

    申请号:CN201210495044.7

    申请日:2012-11-28

    CPC classification number: G06T3/4007 G06T5/50 G06T2207/20224

    Abstract: 本发明涉及一种基于自回归模型的任意比例图像插值方法,属于数字图像增强技术领域。本发明首先将低分辨率图像上插到目标尺度,得到上插后的图像M;然后确定图像M中待插值的局部区域W,对局部区域W内部除边缘像素点外的每一个像素点建立水平垂直和45度对角线两种自回归模型,根据所述自回归模型确定初始目标函数F0;再将局部区域W除去边缘像素点外下采至与低分辨率图像相同的尺寸,得到局部区域W′,将局部区域W′与低分辨图像中相对应的区域逐像素值相减,将结果加入到初始目标函数F0中,得到目标函数F;最后对目标函数F进行迭代求解,获得局部区域W中心块的像素点值。本发明提高了任意比例图像插值方法的效率。

    一种可伸缩视频编码量化参数确定方法及装置

    公开(公告)号:CN103096048A

    公开(公告)日:2013-05-08

    申请号:CN201110342185.0

    申请日:2011-11-02

    Abstract: 本发明公开了一种可伸缩视频编码量化参数确定方法,用以降低可伸缩视频编码时码率分配的复杂度,提高编码效率以及编码性能。该方法为:为待编码图像组分配目标码率;根据每个视频帧的复杂性描述子确定待编码图像组中每个视频帧与其相关视频帧的量化参数差异矢量;基于待编码图像组中所有视频帧的复杂性描述子和目标码率,以及前一图像组的关键帧量化参数,确定待编码图像组的关键帧量化参数;基于待编码图像组的关键帧量化参数以及量化参数差异矢量,确定待编码图像组每个视频帧的量化参数,并根据位于同一时域层的各视频帧的量化参数,确定待编码图像组中各时域层的量化参数。本发明同时公开了一种可伸缩视频编码量化参数确定装置。

    一种视频帧前景跟踪方法以及视频编码器

    公开(公告)号:CN101877786B

    公开(公告)日:2012-08-15

    申请号:CN200910083412.5

    申请日:2009-04-30

    Abstract: 本发明公开了一种视频帧前景跟踪方法以及视频编码器,该方法包括:利用视频编码运动估计生成的中间数据进行与码率无关的运动估计,以确定出当前帧中各宏块的轨迹矢量;将当前帧中各宏块按照各自轨迹矢量映射到前向参考帧,根据各宏块落入前向参考帧的前景区域内的像素数量,确定出当前帧中的候选前景宏块;根据候选前景宏块落入前向参考帧前景区域内的像素数量,确定出当前帧的前景相对于其前向参考帧的前景的主要轨迹矢量;将候选前景宏块按照所述主要轨迹矢量映射到前向参考帧,根据所述候选前景宏块落入该前向参考帧前景区域的像素总数量与该前景区域像素总数量的比值,采用相应方式定位出当前帧中的前景区域。

    视频编码处理方法和装置
    66.
    发明公开

    公开(公告)号:CN101562740A

    公开(公告)日:2009-10-21

    申请号:CN200910085145.5

    申请日:2009-06-02

    Abstract: 本发明提供了一种视频编码处理方法,包括:在空域-质量域可伸缩视频编码中,分配各空域层的码率;在各空域层中,通过分析质量域待编层和质量域参考层的编码失真的关系,建立质量域待编层的编码失真模型;通过分析质量域待编层和质量域参考层的码率的关系,建立质量域待编层的码率模型;根据相应的空域层的码率、质量域待编层的编码失真模型和码率模型,分配质量域参考层和质量域待编层的码率。本发明还提供了一种视频编码处理装置。本发明实现了各编码层次间相关性基础上的码率优化分配,能够使得编码效率最大化,进一步优化了可伸缩编码的编码性能。

    一种基于夏普利值引导数据混合的长尾骨架动作识别方法

    公开(公告)号:CN119007282A

    公开(公告)日:2024-11-22

    申请号:CN202410951883.8

    申请日:2024-07-16

    Applicant: 北京大学

    Abstract: 本发明公开了一种基于夏普利值引导数据混合的长尾骨架动作识别方法,属于动作识别领域和长尾学习领域。本发明通过夏普利值计算人体骨架数据中不同关节部位的显著性,裁剪尾部类别的显著性运动区域,进行数据混合增强。本发明解决了长尾分布下骨架动作识别准确率低的问题,扩充了尾部类别的数据样本,促进了尾部类别的决策边界学习。本发明通过在线动量更新显著性估计结果,生成更具表示性的混合数据,并采用长尾学习的重加权损失对模型进行优化训练,显著提升了尾部类别的识别效果和模型的泛化能力。

    一种颜色可控的文本引导灰色图着色方法及系统

    公开(公告)号:CN118505851A

    公开(公告)日:2024-08-16

    申请号:CN202410736201.1

    申请日:2024-06-07

    Applicant: 北京大学

    Abstract: 本发明公开一种颜色可控的文本引导灰色图着色方法及系统,属于数字图像灰色图着色领域。所述方法包括:针对带有文本描述的灰色图,提取所述灰色图的灰色图隐变量、语义边缘图隐变量和标准空间语义特征,并获取文本描述特征;在所述灰色图隐变量的基础上注入文本描述特征,得到粗粒度着色隐变量;将该粗粒度着色隐变量联合语义边缘图隐变量作为ControlNet着色框架输入,并将标准空间语义特征与ControlNet着色框架的主干特征融合后注入ControlNet着色框架,以得到着色结果图隐变量;将所述灰色图隐变量经过解码得到的中间特征作为所述着色结果图隐变量的结构引导和灰色信息,生成颜色可控的颜色图。本发明可以生成不同的颜色丰富程度的颜色图。

    低光照视频增强模型的训练及低光照视频的增强方法

    公开(公告)号:CN118469849A

    公开(公告)日:2024-08-09

    申请号:CN202410485622.1

    申请日:2024-04-22

    Applicant: 北京大学

    Abstract: 本发明涉及一种低光照视频增强模型的训练及低光照视频的增强方法,通过无监督训练的方式,实现不需要获取成对数据,只需要低光照场景下的视频即可完成对低光照视频增强模型的训练,并且,通过损失函数的设计,在总损失函数增加预测视频帧熵值的损失函数,从而使得训练得到的低光照视频增强模型能够学习低光照视频中本身的噪声,并且减少输出视频的噪声,从而使低光照视频增强模型面对真实场景下的低光照视频,也可以达到更好的增强效果,不会因为缺少监督导致噪声较大,或对降噪策略设置的不合理,而影响实际的增强效果。

Patent Agency Ranking