获取图像的紧凑全局特征描述子的方法及图像检索方法

    公开(公告)号:CN102968632A

    公开(公告)日:2013-03-13

    申请号:CN201210390965.7

    申请日:2012-10-15

    Applicant: 北京大学

    Abstract: 本发明提供一种获取图像的紧凑全局特征描述子的方法及图像检索方法,其中,该方法包括:获取图像的至少一个局部特征描述子,从所有的局部特征描述子中选取一个或多个局部特征描述子,将所选取的局部特征描述子进行降维,获得降维后的局部特征描述子;根据第一规则,将降维后的局部特征描述子转换为用于表达图像视觉特征的全局特征描述子;将全局特征描述子进行数据压缩,得到图像的紧凑全局特征描述子;其中,全局特征描述子的字节大小可根据第一规则中的参数值的变化而变化。上述方法获取的全局视觉特征更加紧凑并具有可伸缩性,解决了现有技术中内存较低的移动终端上空间不足的缺陷。

    图像压缩的方法及装置、终端

    公开(公告)号:CN102595138A

    公开(公告)日:2012-07-18

    申请号:CN201210050655.0

    申请日:2012-02-29

    Applicant: 北京大学

    Abstract: 本发明提供一种图像压缩的方法及装置、终端,其中,所述方法包括:获取目标图像的DCT变换系数;采用第二量化表量化所述DCT变换系数,经所述第二量化表量化后得到的图像为目标图像的特征量,用于表示压缩后的目标图像,特征量的比特数小于等于目标图像的比特数的十分之一;第二量化表为采用基于图像检索性能获取的量化表优化规则重新设定JPEG标准的第一量化表中的量化值之后得到的优化目标函数值最小的量化表。上述方法能够将图像压缩至较低的比特数,以满足低性能的移动设备的传输需求,进一步地,能够解决现有技术中由于受无线网络带宽的限制,传输至服务器端的压缩图像的比特数和失真率较高而导致的传输延迟和检索准确率不高的问题。

    用于分布式图片搜索的索引构建方法和服务器

    公开(公告)号:CN102081666A

    公开(公告)日:2011-06-01

    申请号:CN201110024141.3

    申请日:2011-01-21

    Applicant: 北京大学

    Abstract: 本发明公开了一种用于分布式图片搜索的索引构建方法和服务器,其索引构建方法的步骤包括:提取服务器的图片数据库中所有图片的一个以上的特征,并将该些特征转换为视觉单词集合,得到原始视觉单词词典及对应的总索引表;另获取代表原始视觉单词词典的有效视觉单词词典,该有效视觉单词词典中的每一视觉单词均建立有各自相对应的倒排记录表;采用第一预设规则,将有效视觉单词词典中的各视觉单词均衡分配至各检索服务器内,使每一检索服务器得到其内部的视觉单词组成的子视觉单词词典,以及该子视觉单词词典中的每一视觉单词的倒排记录表组成该子视觉单词词典的索引表。上述方法能够提高服务器的检索效率,满足了用户在检索中实时响应的需求。

    基于视觉显著度的视频广告关联方法与系统

    公开(公告)号:CN101489139B

    公开(公告)日:2010-11-10

    申请号:CN200910076782.6

    申请日:2009-01-21

    Applicant: 北京大学

    Abstract: 本发明涉及一种图像和视频处理方法,特别是关于一种基于视觉显著度的视频广告关联方法。本方法中,通过计算采样帧的显著度分布图,可以自动选取一段视频中最受用户关注的显著区域。基于提取的显著区域,本方法可以自动通过多种检索方法,在广告库中获取与这些显著区域相关联的广告标志以及相关信息。最后,将视频片段与查询到的广告信息同步播放给用户。本方法可以在不影响用户观看的情况下,为用户所关注的显著区域关联相关的广告信息,进而满足了用户对其所关注区域深入了解和进一步探索的需求。

    图像处理模型训练方法和图像处理模型应用方法

    公开(公告)号:CN119295569A

    公开(公告)日:2025-01-10

    申请号:CN202411301114.X

    申请日:2024-09-18

    Applicant: 北京大学

    Inventor: 段凌宇 郭莎

    Abstract: 本申请提出一种图像处理模型训练方法和图像处理模型应用方法,本申请实施例针对第一潜在特征,将第一潜在特征输入至第二视觉任务模型,得到第二任务执行结果;基于多个视觉任务模型各自对应的第一任务执行结果和第二任务执行结果,计算第一损失函数值,以确保每个编码器学习到的潜在特征学习到其他视觉任务模型的特征,以提高每个编码器的泛化能力,基于多个潜在特征和样本图像,计算第二损失函数值,以在给定的比特率约束内优化重建质量。

    一种面向监控场景车窗图像的图像增强方法与系统

    公开(公告)号:CN110807740B

    公开(公告)日:2023-04-18

    申请号:CN201910877750.X

    申请日:2019-09-17

    Applicant: 北京大学

    Abstract: 本发明公开了用于增强监控中车窗图像的图像增强方法与系统,利用弱监督学习模型框架对交通监控场景中拍摄的存在高噪声,低光照与模糊等多种图像退化现象的车前窗图像的清晰度进行提升。本发明的优势在于:本发明利用基于对抗生成网络的弱监督学习框架解决了模型训练中采集与标注数据的瓶颈,并用同一模型恢复多种退化现象;设计了基于车辆再检索任务的内容保持机制,在提高图像视觉质量的同时保持与原图像的内容特征一致性。增强结果除提高车窗图片中车内场景对人类观察者的可视性外,同时在机器视觉上可提高车辆检索模型的性能。

    向后兼容表示的邻域一致性对比学习方法、系统及介质

    公开(公告)号:CN113610162A

    公开(公告)日:2021-11-05

    申请号:CN202110908457.2

    申请日:2021-08-09

    Applicant: 北京大学

    Abstract: 本申请涉及深度学习技术领域,更为具体来说,本申请涉及向后兼容表示的邻域一致性对比学习方法、系统及介质。所述方法包括:获取训练样本;将所述训练样本输入到第一神经网络模型中进行特征提取,得到第一特征;采用高斯核函数计算所述第一特征的熵;基于熵值过滤掉所述第一特征中位于类边缘区域的模糊特征,得到第二特征;将训练样本输入到第二神经网络模型中进行特征提取得到第三特征,利用所述第二特征和所述第三特征进行对比学习;基于对比学习的损失函数优化所述第二神经网络模型。本申请所述方法实现了模型的平滑部署,方便应用,后续在图像检索应用及其它应用场景时可自动更新模型。

    提升目标重识别泛化性的方法、装置、设备及存储介质

    公开(公告)号:CN113505642A

    公开(公告)日:2021-10-15

    申请号:CN202110627547.4

    申请日:2021-06-04

    Applicant: 北京大学

    Abstract: 本发明公开了一种提升目标重识别泛化性的方法、装置、设备及存储介质,方法包括:将未知领域的样本图像数据输入预训练的多领域专家混合模型,得到每个领域的专属特征以及所述样本图像的查询特征;计算所述查询特征与所述专属特征的平均相似度,根据所述平均相似度确定所述样本图像与每个领域的相关性;根据领域相关性对每个领域的专属特征进行加权聚合,得到聚合特征;根据所述聚合特征对所述样本图像进行目标重识别。根据本公开实施例提供的提升目标重识别泛化性的方法,通过利用元学习和多领域专家混合模型,对已知领域数据特征进行动态地聚合以生成在未知领域数据上具有强泛化能力的特征,从而提升目标识别领域的泛化性。

    一种基于视频帧生成的视频编码方法

    公开(公告)号:CN113132735A

    公开(公告)日:2021-07-16

    申请号:CN201911392082.8

    申请日:2019-12-30

    Applicant: 北京大学

    Abstract: 本发明公开了一种基于视频帧生成的视频编码方法,其步骤包括:训练神经网络:每次训练迭代时,从样本视频训练集中抽取一个视频片段的两帧Ik和It送入神经网络中,生成对It的预测计算和目标帧It之间的L1范数并将其反向传播到神经网络,直到神经网络收敛;编码阶段:编码端利用神经网络提取已编码的参考帧和目标待编码非关键帧之间的稀疏运动表征,生成预测帧;将预测帧加入参考帧列表进行帧间预测,然后将帧间预测信息和稀疏运动表征发送给解码端;解码阶段:解码端根据重建的参考帧和传输的稀疏运动表征估计到目标帧的稠密运动信息并生成目标帧;然后将生成的目标帧加入参考帧列表并利用帧间预测信息进行目标帧的重建。

    一种基于图像生成的可伸缩机器视觉编码方法

    公开(公告)号:CN113132727A

    公开(公告)日:2021-07-16

    申请号:CN201911393847.X

    申请日:2019-12-30

    Applicant: 北京大学

    Abstract: 本发明公开了一种基于图像生成的可伸缩机器视觉编码方法,其步骤包括:构建一运动引导图像生成网络;训练神经网络:每次迭代时,从视频序列中选取关键帧与待编码帧及对应的关键点数据并输入网络,计算出关键帧和待编码帧的关键点;根据关键帧与待编码帧的关键点差别进行运动估计;根据估计所得运动以及关键帧获得待编码帧的重建帧;计算关键点位置的预测结果与关键点实际位置之间的预测误差以及计算待编码帧与其重建帧的重建误差,并将其反向传播到网络直到网络收敛;编码阶段:将待处理视频序列的每一帧输入训练后的运动引导图像生成网络,计算每一帧中的关键点的位置信息并进行量化压缩;解码阶段根据码流和任务进行图像重建。

Patent Agency Ranking