基于加权量化的视频压缩编解码方法及编解码器

    公开(公告)号:CN103716623A

    公开(公告)日:2014-04-09

    申请号:CN201310695685.1

    申请日:2013-12-17

    Abstract: 本申请公开一种基于加权量化的视频压缩编解码方法,编码过程包括将待编码图像的属性分量划分成若干属性块;对属性块进行预测得到残差块,并变换得到残差块中各频点的变换系数;选取一个默认矩阵,对频点的初始量化步长进行加权计算得到加权量化步长矩阵;使用加权量化步长矩阵对变换系数进行量化,得到量化块,将量化块写入码流,并根据量化块的值,确认写入码流的其他信息。本申请还公开一种基于加权量化的视频压缩编解码器。本申请由于预设加权量化矩阵集中包括多个默认矩阵,能有效地对不同情况下的变换系数矩阵进行加权量化,在不降低主观质量的情况下,有效的降低编码所需码率。

    一种基于文本不同特征空间的双流式视频生成方法

    公开(公告)号:CN109978021B

    公开(公告)日:2022-09-16

    申请号:CN201910172420.0

    申请日:2019-03-07

    Abstract: 本发明公布了一种基于文本不同特征空间的双流式视频生成方法,包括:文本特征提取过程、双流式视频生成过程和对抗性训练过程。本发明对解析了输入的文本内容,并利用关注机制得到的特征信息进行了分离,分别提取了外观特征空间与运动特征空间的信息;采用双流式视频生成方式,最大化地利用单一模型对指定特征的学习能力;使用对抗性训练过程,从每一帧的质量和整体运动的连贯性两方面来指导和训练模型,同时加入文本特征来强化训练过程,使得生成的视频可以符合输入文本描述,实现生成的准确性。本发明方法能够实现智能化生成,在素材积累和数据集自动生成方面具有广泛的市场需求和应用前景。

    基于受限文本空间的对抗性跨媒体检索方法

    公开(公告)号:CN108319686B

    公开(公告)日:2021-07-30

    申请号:CN201810101127.0

    申请日:2018-02-01

    Abstract: 本发明公布了一种基于受限文本空间的对抗性跨媒体检索方法,设计特征提取网络、特征映射网络和模态分类器,通过学习得到受限文本空间,提取适用于跨媒体检索的图像和文本特征,实现图像特征从图像空间到文本空间的映射;通过对抗性训练机制使得学习过程中不断减小不同模态数据之间特征分布的差异性;由此实现跨媒体检索。本发明能够更好地拟合人类在跨媒体检索任务中的行为表现;得到更适用于跨媒体检索任务的图像和文本特征,弥补了预训练特征在表达能力上的欠缺;引入对抗性学习的机制,通过模态分类器与特征映射网络之间的最大最小博弈,进一步提升了检索准确率。

    一种基于显著性物体检测的图像场景重构方法

    公开(公告)号:CN107194870B

    公开(公告)日:2020-07-28

    申请号:CN201710372338.3

    申请日:2017-05-24

    Abstract: 本发明公布了一种基于显著性物体检测的图像场景重构方法,属于图像处理技术领域,通过对图像场景中的显著性物体进行检测,自动提取、移除显著性物体,得到待重构图像场景的完整背景和待重构图像场景的显著性物体元素;包括:图像显著性物体检测过程、提取图像场景元素过程、重构场景元素尺寸过程、重构场景元素颜色过程和组合场景元素过程,得到重构的新图像。本发明使得图像场景重构需要人机交互的时间大为减少,克服了图像场景重构过于依赖人机交互的不足,降低了用户对图像场景重构的技术要求。本发明是一种智能化的图像场景重构方法,快捷便利,可以得到较好的图像场景重构图。

    一种基于卷积神经网络的视频动作检测方法

    公开(公告)号:CN106897714B

    公开(公告)日:2020-01-14

    申请号:CN201710177579.2

    申请日:2017-03-23

    Abstract: 本发明公布了一种视频动作检测方法,涉及计算机视觉识别技术领域。本发明视频动作检测方法基于卷积神经网络,通过在网络结构中增加时空金字塔池化层,消除网络对输入的限制,加快训练和检测的速度,提高视频动作分类和时间定位的性能;卷积神经网络包括卷积层、普通池化层、时空金字塔池化层和全连接层;卷积神经网络的输出包括类别分类输出层和时间定位计算结果输出层;本发明方法不需要通过下采样来获取不同时间长度的视频片段,而是直接一次输入整个视频,提高了效率;同时,由于网络训练的是同一频率的视频片段,并无增加类内的差异性,降低了网络的学习负担,模型收敛得更快,检测效果更好。

    一种基于文本不同特征空间的双流式视频生成方法

    公开(公告)号:CN109978021A

    公开(公告)日:2019-07-05

    申请号:CN201910172420.0

    申请日:2019-03-07

    Abstract: 本发明公布了一种基于文本不同特征空间的双流式视频生成方法,包括:文本特征提取过程、双流式视频生成过程和对抗性训练过程。本发明对解析了输入的文本内容,并利用关注机制得到的特征信息进行了分离,分别提取了外观特征空间与运动特征空间的信息;采用双流式视频生成方式,最大化地利用单一模型对指定特征的学习能力;使用对抗性训练过程,从每一帧的质量和整体运动的连贯性两方面来指导和训练模型,同时加入文本特征来强化训练过程,使得生成的视频可以符合输入文本描述,实现生成的准确性。本发明方法能够实现智能化生成,在素材积累和数据集自动生成方面具有广泛的市场需求和应用前景。

    基于混合框架的图像位深度扩展方法及装置

    公开(公告)号:CN107481278B

    公开(公告)日:2019-06-28

    申请号:CN201710717259.1

    申请日:2017-08-21

    Abstract: 本发明公布了一种基于混合框架的图像位深度扩展方法及装置,通过融合传统去带效应算法和基于深度网络的学习算法,可较好的移除图像平坦区域的不自然效应,同时更逼真的恢复所缺失的比特位的数值信息;包括图像平坦区域的提取、基于局部自适应像素值调整的平坦区域位深度扩展和基于卷积神经网络的非平坦区域位深度扩展。本发明采用基于学习的方法,通过训练有效的深度网络来解决逼真的恢复缺失比特位问题;同时,针对平坦区域使用简单而鲁棒的局部自适应像素值调整的方法,有效抑制平坦区域的带效应、振铃效应、以及平坦噪声等不自然效应,提升平坦区域的主观视觉质量。

    基于受限文本空间的多步自注意力跨媒体检索方法及系统

    公开(公告)号:CN109783657A

    公开(公告)日:2019-05-21

    申请号:CN201910011678.2

    申请日:2019-01-07

    Inventor: 王文敏 余政

    Abstract: 本发明公布了一种基于受限文本空间的多步自注意力跨媒体检索方法及检索系统,通过构建相对固定的词汇表的受限文本空间,再将非受限文本空间转换成受限文本空间;通过特征提取网络提取受限文本空间的图像特征和文本特征;特征包括全局特征、区域特征集合及关联特征;将提取得到的特征送入特征映射网络,并通过多步自注意力机制提取图像和文本之间物体层次的共享信息;再通过相似性度量网络汇总各时刻有用信息来衡量图像和文本之间的相似度,并计算三元组损失函数;由此实现基于受限文本空间的多步自注意力跨媒体检索。本发明通过引入多步自注意力机制和关联特征,大幅度提升了跨媒体检索召回率。

    一种图像匹配方法和装置
    90.
    发明授权

    公开(公告)号:CN105678778B

    公开(公告)日:2019-02-26

    申请号:CN201610022261.2

    申请日:2016-01-13

    Abstract: 本发明公开了一种图像匹配方法和装置。该方法包括:获取模板图像和目标图像;根据模板图像获取一组模板特征;根据目标图像提取一组目标特征;根据模板特征和目标特征,计算模板图像与每帧目标图像的图像相似度,并以图像相似度最大的目标图像为与模板图像匹配的图像。上述实施例的图像匹配方法和装置中,通过模板特征与目标特征之间的相似度分别计算模板图像与每个目标图像之间的图像相似度来进行图像匹配,可以保证图像匹配过程中特征的不冗余性,保证图像的正确匹配,提高图像匹配的准确度。

Patent Agency Ranking