-
公开(公告)号:CN104615612A
公开(公告)日:2015-05-13
申请号:CN201410182891.7
申请日:2014-04-30
Applicant: 北京大学
CPC classification number: G06F17/30247 , G06K9/46
Abstract: 本发明提供一种获取紧凑全局特征描述子的码流的方法,其中,所述方法包括:获取待处理图像的紧凑全局特征描述子;构造所述紧凑全局特征描述子的码流,所述码流包括:所述码流头部和所述码流主体;所述码流头部用于标识构成所述码流的所述紧凑全局特征描述子的构成方式,所述码流主体用于标识所述紧凑全局特征描述子中所有比特的值。上述获取紧凑全局特征描述子的码流的方法能够提高紧凑全局特征描述子的表达能力,进而提高图像检索的准确率和检索效率。
-
公开(公告)号:CN104615611A
公开(公告)日:2015-05-13
申请号:CN201410182871.X
申请日:2014-04-30
Applicant: 北京大学
CPC classification number: G06F17/30256 , G06K9/4604
Abstract: 本发明提供一种获取全局特征描述子的方法,其中,所述方法包括:获取待处理图像中的局部特征描述子,并将所述局部特征描述子组成描述子集合;根据全局特征描述子生成规则,对所述描述子集合中的所有局部特征描述子进行转换,得到包括累积梯度向量的累积梯度向量集合;根据所述累积梯度向量集合中的累积梯度向量构造所述待处理图像的一个全局特征描述子。上述方法获取的全局特征描述子包含了待处理图像的局部特征描述子的统计信息,具有较强的判别力,提高图像检索或图像分类的处理性能。
-
公开(公告)号:CN104615610A
公开(公告)日:2015-05-13
申请号:CN201410182507.3
申请日:2014-04-30
Applicant: 北京大学
CPC classification number: G06F17/30247
Abstract: 本发明提供一种获取可伸缩全局特征描述子的方法,其中,所述方法包括:获取图像的全局特征描述子;据预设的第一规则,对所述全局特征描述子进行处理,获取所述图像的可伸缩全局特征描述子;其中,所述可伸缩全局特征描述子的字节大小根据所述第一规则中参数值的变化而变化。上述方法获得的可伸缩全局特征描述子能够降低全局特征描述子占用空间,使之适用于不同的应用,提高描述子在图像检索过程的效率。
-
公开(公告)号:CN102081666B
公开(公告)日:2013-05-29
申请号:CN201110024141.3
申请日:2011-01-21
Applicant: 北京大学
IPC: G06F17/30
Abstract: 本发明公开了一种用于分布式图片搜索的索引构建方法和装置,其索引构建方法的步骤包括:提取服务器的图片数据库中所有图片的一个以上的特征,并将该些特征转换为视觉单词集合,得到原始视觉单词词典及对应的总索引表;另获取代表原始视觉单词词典的有效视觉单词词典,该有效视觉单词词典中的每一视觉单词均建立有各自相对应的倒排记录表;采用第一预设规则,将有效视觉单词词典中的各视觉单词均衡分配至各检索服务器内,使每一检索服务器得到其内部的视觉单词组成的子视觉单词词典,以及该子视觉单词词典中的每一视觉单词的倒排记录表组成该子视觉单词词典的索引表。上述方法能够提高服务器的检索效率,满足了用户在检索中实时响应的需求。
-
公开(公告)号:CN102147815B
公开(公告)日:2013-04-17
申请号:CN201110100485.8
申请日:2011-04-21
Applicant: 北京大学
IPC: G06F17/30
Abstract: 本发明提供一种图片搜索方法和图片搜索系统,该方法包括客户端接收查询内容,该查询内容包括待查询的目标图片、或者待查询的目标图片和相关信息;客户端获取目标图片的视觉单词,并依据预置规则在客户端的一个以上的视觉单词词典中选取与查询内容对应的至少一个目标视觉单词词典,以及,依据目标视觉单词词典获取视觉单词的目标视觉单词;将目标视觉单词编码后发送至服务端,以获取匹配查询内容的结果图片和/或结果图片的相关信息。该方法通过减少客户端上传的数据量的方式提高图片搜索的速度,同时缩短了用户的等待时间,且能够提升系统检索的准确率。
-
公开(公告)号:CN101489139A
公开(公告)日:2009-07-22
申请号:CN200910076782.6
申请日:2009-01-21
Applicant: 北京大学
Abstract: 本发明涉及一种图像和视频处理方法,特别是关于一种基于视觉显著度的视频广告关联方法。本方法中,通过计算采样帧的显著度分布图,可以自动选取一段视频中最受用户关注的显著区域。基于提取的显著区域,本方法可以自动通过多种检索方法,在广告库中获取与这些显著区域相关联的广告标志以及相关信息。最后,将视频片段与查询到的广告信息同步播放给用户。本方法可以在不影响用户观看的情况下,为用户所关注的显著区域关联相关的广告信息,进而满足了用户对其所关注区域深入了解和进一步探索的需求。
-
公开(公告)号:CN118865011A
公开(公告)日:2024-10-29
申请号:CN202410807160.0
申请日:2024-06-21
Applicant: 北京大学
IPC: G06V10/774 , G06V10/764 , G06V10/82 , G06N3/084 , G06N3/0985
Abstract: 本公开提出一种用于部署阶段的模型优化方法、装置、设备及存储介质,该方法包括:当图像识别模型被部署到目标域时,获取目标域的多个第一样本数据;对多个第一样本数据分别进行特征提取,得到与多个第一样本数据一一对应的多个特征向量;针对多个特征向量中的任意一个特征向量,计算与特征向量对应的增广熵损失函数的数值;根据每个特征向量对应的增广熵损失函数的数值,从多个第一样本数据中筛选出多个第二样本数据;基于多个第二样本数据以及对应的增广熵损失函数,对图像识别模型进行模型优化,得到优化后的图像识别模型。本实施例不仅提高了部署阶段模型对目标域的适配能力,而且在保证适配效果的同时,显著降低了实际部署的时间和资源消耗。
-
公开(公告)号:CN118469849A
公开(公告)日:2024-08-09
申请号:CN202410485622.1
申请日:2024-04-22
Applicant: 北京大学
IPC: G06T5/70 , G06T5/77 , G06T5/92 , G06T5/60 , G06N3/0455 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及一种低光照视频增强模型的训练及低光照视频的增强方法,通过无监督训练的方式,实现不需要获取成对数据,只需要低光照场景下的视频即可完成对低光照视频增强模型的训练,并且,通过损失函数的设计,在总损失函数增加预测视频帧熵值的损失函数,从而使得训练得到的低光照视频增强模型能够学习低光照视频中本身的噪声,并且减少输出视频的噪声,从而使低光照视频增强模型面对真实场景下的低光照视频,也可以达到更好的增强效果,不会因为缺少监督导致噪声较大,或对降噪策略设置的不合理,而影响实际的增强效果。
-
公开(公告)号:CN113537456B
公开(公告)日:2023-10-17
申请号:CN202110660867.X
申请日:2021-06-15
Applicant: 北京大学
IPC: G06N3/0464 , G06N3/048 , G06N3/082 , G06N3/084 , G06V10/764 , G06V10/82
Abstract: 本发明公开了一种深度特征压缩方法,本发明构建并训练一压缩模型,该模型首先对神经网络提取的图像特征表示进行变换,产生变换后的紧凑表示,提取变换后的表示的超先验码流;超先验码流用于产生码本各个基元素的线性组合系数;码本从特征中学习获得;根据线性组合系数和对应的码本产生超先验概率估计,从而使用熵编码器进行熵编码,产生码流;码流通过熵解码和解码变换产生输出的特征表示。本发明能够对深度特征进行有效压缩,而且能够对多个任务特征进行协同压缩,重建时,对特征进行分离操作,分别产生对应不同任务的重建特征;本发明还能够支持训练时未见的新任务。
-
公开(公告)号:CN113132727B
公开(公告)日:2022-07-22
申请号:CN201911393847.X
申请日:2019-12-30
Applicant: 北京大学
IPC: H04N19/124 , H04N19/172 , H04N19/42 , H04N19/44 , H04N19/70 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于图像生成的可伸缩机器视觉编码方法,其步骤包括:构建一运动引导图像生成网络;训练神经网络:每次迭代时,从视频序列中选取关键帧与待编码帧及对应的关键点数据并输入网络,计算出关键帧和待编码帧的关键点;根据关键帧与待编码帧的关键点差别进行运动估计;根据估计所得运动以及关键帧获得待编码帧的重建帧;计算关键点位置的预测结果与关键点实际位置之间的预测误差以及计算待编码帧与其重建帧的重建误差,并将其反向传播到网络直到网络收敛;编码阶段:将待处理视频序列的每一帧输入训练后的运动引导图像生成网络,计算每一帧中的关键点的位置信息并进行量化压缩;解码阶段根据码流和任务进行图像重建。
-
-
-
-
-
-
-
-
-