-
公开(公告)号:CN104615613A
公开(公告)日:2015-05-13
申请号:CN201410183575.1
申请日:2014-04-30
Applicant: 北京大学
IPC: G06F17/30
CPC classification number: G06F17/30256 , G06K9/6212 , G06K9/6215
Abstract: 本发明提供一种全局特征描述子的聚合方法,包括:获取待处理图像的局部特征描述子,根据所述局部特征描述子的重要性,将所有的局部特征描述子进行排序,获得排序后的局部特征描述子;根据截断阈值,从所述排序后的局部特征描述子中选择用于聚合全局特征描述子的若干个局部特征描述子;采用高斯混合模型对所述若干个局部特征描述子进行聚合,获得待处理图像的全局特征描述子;其中,所述截断阈值为训练预设的图像数据集中每类图像的检索结果得到的。上述方法可降低现有技术中全局特征描述子聚合过程中的时间复杂度,提高全局特征描述子的鉴别力和鲁棒性。
-
公开(公告)号:CN104581158A
公开(公告)日:2015-04-29
申请号:CN201310486293.4
申请日:2013-10-16
Applicant: 中兴通讯股份有限公司 , 北京大学
IPC: H04N19/176 , H04N19/625
Abstract: 本发明提供了一种量化表、图像压缩处理方法、装置、终端及图像搜索系统,该方法包括:根据预设公式确定初始JPEG标准量化表中的量化值;依据优化目标函数确定所述预设量化表;输出预设量化表,其中,所述输出预设量化表中的量化值使得优化目标函数值最小,所述优化目标函数值依据所述目标图像与压缩后的压缩图像的失真率确定;依据采用预设量化表进行量化后的DCT系数对目标图像进行压缩编码处理。通过本发明,解决了相关技术中采用JPEG标准量化表压缩的查询图片的比特数无法满足低性能移动设备的传输性能的问题,达到了大大提高了图片压缩的操作性,提高用户体验的效果。
-
公开(公告)号:CN102595138B
公开(公告)日:2014-04-23
申请号:CN201210050655.0
申请日:2012-02-29
Applicant: 北京大学
IPC: H04N19/625 , G06F17/30
Abstract: 本发明提供一种图像压缩的方法及装置、终端,其中,所述方法包括:获取目标图像的DCT变换系数;采用第二量化表量化所述DCT变换系数,经所述第二量化表量化后得到的图像为目标图像的特征量,用于表示压缩后的目标图像,特征量的比特数小于等于目标图像的比特数的十分之一;第二量化表为采用基于图像检索性能获取的量化表优化规则重新设定JPEG标准的第一量化表中的量化值之后得到的优化目标函数值最小的量化表。上述方法能够将图像压缩至较低的比特数,以满足低性能的移动设备的传输需求,进一步地,能够解决现有技术中由于受无线网络带宽的限制,传输至服务器端的压缩图像的比特数和失真率较高而导致的传输延迟和检索准确率不高的问题。
-
公开(公告)号:CN102063472A
公开(公告)日:2011-05-18
申请号:CN201010597576.2
申请日:2010-12-20
Applicant: 北京大学
IPC: G06F17/30
Abstract: 本发明提供一种图片搜索方法、图片搜索系统、客户端和服务器,其中,图片搜索方法包括:客户端获取待搜索的目标图片和针对该目标图片的第一关联信息,且将第一关联信息发送至服务端,同时客户端获取目标图片的视觉单词;服务端基于客户端的第一关联信息查找其内部的视觉单词词典库中视觉单词词典,以及将该视觉单词词典发送至客户端;所述客户端基于服务端发送的视觉单词词典得到目标视觉单词,并将其发送至所述服务端;所述服务端接收所述目标视觉单词,并查找对应该目标视觉单词的一个以上的结果图片和相关的扩展信息,以及将其发送至客户端。上述图片搜索方法缩短了客户检索等待时间,提高了检索性能与效率,该方法可适用于各个领域。
-
公开(公告)号:CN113505642B
公开(公告)日:2023-10-24
申请号:CN202110627547.4
申请日:2021-06-04
Applicant: 北京大学
IPC: G06V40/10 , G06V20/52 , G06V10/764 , G06V10/80
Abstract: 本发明公开了一种提升目标重识别泛化性的方法、装置、设备及存储介质,方法包括:将未知领域的样本图像数据输入预训练的多领域专家混合模型,得到每个领域的专属特征以及所述样本图像的查询特征;计算所述查询特征与所述专属特征的平均相似度,根据所述平均相似度确定所述样本图像与每个领域的相关性;根据领域相关性对每个领域的专属特征进行加权聚合,得到聚合特征;根据所述聚合特征对所述样本图像进行目标重识别。根据本公开实施例提供的提升目标重识别泛化性的方法,通过利用元学习和多领域专家混合模型,对已知领域数据特征进行动态地聚合以生成在未知领域数据上具有强泛化能力的特征,从而提升目标识别领域的泛化性。
-
公开(公告)号:CN110827207B
公开(公告)日:2022-12-02
申请号:CN201910877757.1
申请日:2019-09-17
Applicant: 北京大学
IPC: G06T5/00
Abstract: 本发明公开了基于协同分合学习机制的反射消除方法,包括:反射生成网络接收不含反射的背景图像与纯反射图像,通过特征的提取、拼接与解码,获得非线性叠加的合成含反射图像;反射分离网络接收合成含反射图像,基于多任务学习的架构对特征解耦,获得背景图像、纯反射图像与背景图像的梯度图像;将混合图像输入反射分离网络产生预测的背景图像与纯反射图像结果,再将结果输入反射生成网络获得重新合成的混合图像结果,与原始的输入混合图像进行比对形成重建自监督。本发明相比于一般深度学习方法更灵活、高效地完成反射消除。基于真实数据,通过协同分合机制,实现弱监督条件下的三个域之间的相互映射,在学到更好的去反射能力的同时生成更符合物理特性的含反射混合训练图像。
-
公开(公告)号:CN113949880B
公开(公告)日:2022-10-14
申请号:CN202111026165.2
申请日:2021-09-02
Applicant: 北京大学
Abstract: 本发明公开了一种极低码率人机协同图像编码训练方法及编解码方法。本方法为:1)利用训练集训练得到一个生成模型;2)对该训练集中的每一图像Ij进行特征提取和流形映射,得到Ij的流形特征;3)使用超先验模型对流形特征构建码率约束和编解码,得到二进制码流和重建后的流形特征;4)根据码率约束对Ij进行紧致损失函数计算;5)对重建后的流形特征进行人眼视觉映射并输入到生成模型中,根据所得人眼视觉重建结果进行损失函数计算;6)将重建后的流形特征输入到机器视觉模型中,根据所得机器视觉预测结果进行损失函数计算;7)将各损失进行加和更新权值;8)重复2)‑7)直到神经网络的损失收敛,得到极低码率人机协同图像编码器。
-
公开(公告)号:CN113132732B
公开(公告)日:2022-07-29
申请号:CN201911408329.0
申请日:2019-12-31
Applicant: 北京大学
IPC: H04N19/187 , H04N19/30 , H04N19/44 , H04N19/146 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种人机协同的视频编码方法及视频编码系统。本方法为:1)对于一段待编码视频以及对应的关键点序列,编码器首先对关键点序列进行编码压缩,形成关键点序列码流;然后从待编码视频中选取一帧并编码,作为参考帧,形成参考帧码流;根据关键点序列和参考帧生成一预测视频;2)降低该待编码视频的分辨率;计算该真实低分率视频与预测视频信号之间的残差,根据各帧的残差组成一残差视频序列并将其编码成残差码流;3)编码器根据需求将码流选择性的传输到解码器;如果为机器视觉任务,则根据关键点码流重建得到关键点序列;如果需要重建视频序列,则根据三码流重建得到原分辨率视频。本发明根据应用需求,提供可伸缩的视频编码。
-
公开(公告)号:CN114616832A
公开(公告)日:2022-06-10
申请号:CN202080064266.6
申请日:2020-09-11
Abstract: 本申请提供了一种用于基于网络的视觉分析的视觉数据传输方法。所述方法包括:在成像设备处获得与场景相关的传感器数据;基于所述传感器数据从深度学习模型的中间层提取中间深层特征;基于所述中间深层特征生成编码视频数据;以及将所述编码视频数据传送至视觉分析装置,以根据所述编码视频数据进行视觉分析。本申请还提供了相应的基于网络的可视化分析方法。所述方法包括:在视觉分析装置处接收来自成像装置的编码视频数据,所述成像装置被配置为获得与场景相关的传感器数据;基于所述编码视频数据生成解码视频数据;基于所述解码视频数据生成深度学习模型的中间深层特征;并基于所述中间深层特征进行视觉分析。本申请还相应地提供了一种用于基于网络的视觉分析的视觉数据传输的成像设备和一种用于基于网络的视觉分析的视觉分析设备。
-
公开(公告)号:CN110738609B
公开(公告)日:2022-05-06
申请号:CN201910860840.8
申请日:2019-09-11
Applicant: 北京大学
Abstract: 本发明公开了一种去除图像摩尔纹的方法,包括:将原始图像输入到模型,通过模型中的边缘检测网络利用原始图像获得目标边缘特征图输出到模型中的多尺度融合网络;通过模型中的特征提取层提取原始图像的特征得到原始特征图输出到模型中的多尺度融合网络和合成网络;通过多尺度融合网络利用原始特征图和目标边缘特征图获取多尺度融合特征图输出到模型中的合成网络;通过模型中的分类网络利用原始图像获得类别特征图输出到模型中的合成网络;通过合成网络利用原始特征图、类别特征图及多尺度融合特征图生成无摩尔纹图像。本发明对不同类型的摩尔纹去除具有更强的泛化能力和鲁棒性,在有效去除摩尔纹的同时,还能够更好地保留原始图片中的内容细节。
-
-
-
-
-
-
-
-
-