-
公开(公告)号:CN103309951A
公开(公告)日:2013-09-18
申请号:CN201310193569.X
申请日:2013-05-23
Applicant: 北京大学
IPC: G06F17/30
Abstract: 本发明提供一种在网上搜索多媒体文件的方法和装置,将查询向量分成多个比特块后,根据对应的各比特块之间的相似度,确定数据库向量集中汉明空间向量的相似度,从而仅计算相似度超过预设阈值的各汉明空间向量与查询向量的距离并且返回所述相似度超过预设阈值的汉明空间向量中与所述查询向量的距离满足预设条件的汉明空间向量对应的多媒体文件使绝大多数检索的目标向量被包含在所述相似度超过预设阈值的汉明空间向量中,保证了检索的正确率;而且无需在整个数据库向量中对所有汉明空间向量进行遍历计算,降低了计算的复杂度,减轻了计算对系统资源的占用,可在短时间内在大规模数据库中检索出用户所需的多媒体文件,提高了检索效率。
-
公开(公告)号:CN101482926B
公开(公告)日:2011-06-15
申请号:CN200910077364.9
申请日:2009-02-19
Applicant: 北京大学
Abstract: 一种可伸缩的自适应多核分类方法,涉及人工智能领域,特别是数据挖掘技术。预处理阶段,得到多核矩阵;建模阶段,构建一个簇相关的多核分类器;参数学习阶段,在统一的框架内对分类器参数及多组多核权值参数进行优化;数据分类阶段,对待分类的样本,首先确定其属于哪一个簇,再利用学习好的分类器进行数据分类。本发明通过引入中间表达“簇”挖掘复杂数据集的类间相关性和类内多样性,建立了簇相关的自适应和可伸缩多核分类器,并通过迭代的方式在统一的学习框架下优化分类器参数和多组多核权值参数。面对类别繁多且特征表现复杂的数据分类问题,解决类间相关性和类内多样性带来的数据混叠问题,提高了分类准确率,且分类效果更为鲁棒。
-
公开(公告)号:CN119295569A
公开(公告)日:2025-01-10
申请号:CN202411301114.X
申请日:2024-09-18
Applicant: 北京大学
IPC: G06T9/00 , G06N3/08 , G06N3/0455 , G06V10/80 , G06V10/44
Abstract: 本申请提出一种图像处理模型训练方法和图像处理模型应用方法,本申请实施例针对第一潜在特征,将第一潜在特征输入至第二视觉任务模型,得到第二任务执行结果;基于多个视觉任务模型各自对应的第一任务执行结果和第二任务执行结果,计算第一损失函数值,以确保每个编码器学习到的潜在特征学习到其他视觉任务模型的特征,以提高每个编码器的泛化能力,基于多个潜在特征和样本图像,计算第二损失函数值,以在给定的比特率约束内优化重建质量。
-
公开(公告)号:CN110807740B
公开(公告)日:2023-04-18
申请号:CN201910877750.X
申请日:2019-09-17
Applicant: 北京大学
IPC: G06T5/00
Abstract: 本发明公开了用于增强监控中车窗图像的图像增强方法与系统,利用弱监督学习模型框架对交通监控场景中拍摄的存在高噪声,低光照与模糊等多种图像退化现象的车前窗图像的清晰度进行提升。本发明的优势在于:本发明利用基于对抗生成网络的弱监督学习框架解决了模型训练中采集与标注数据的瓶颈,并用同一模型恢复多种退化现象;设计了基于车辆再检索任务的内容保持机制,在提高图像视觉质量的同时保持与原图像的内容特征一致性。增强结果除提高车窗图片中车内场景对人类观察者的可视性外,同时在机器视觉上可提高车辆检索模型的性能。
-
公开(公告)号:CN113610162A
公开(公告)日:2021-11-05
申请号:CN202110908457.2
申请日:2021-08-09
Applicant: 北京大学
IPC: G06K9/62 , G06N3/08 , G06F16/583
Abstract: 本申请涉及深度学习技术领域,更为具体来说,本申请涉及向后兼容表示的邻域一致性对比学习方法、系统及介质。所述方法包括:获取训练样本;将所述训练样本输入到第一神经网络模型中进行特征提取,得到第一特征;采用高斯核函数计算所述第一特征的熵;基于熵值过滤掉所述第一特征中位于类边缘区域的模糊特征,得到第二特征;将训练样本输入到第二神经网络模型中进行特征提取得到第三特征,利用所述第二特征和所述第三特征进行对比学习;基于对比学习的损失函数优化所述第二神经网络模型。本申请所述方法实现了模型的平滑部署,方便应用,后续在图像检索应用及其它应用场景时可自动更新模型。
-
公开(公告)号:CN113505642A
公开(公告)日:2021-10-15
申请号:CN202110627547.4
申请日:2021-06-04
Applicant: 北京大学
Abstract: 本发明公开了一种提升目标重识别泛化性的方法、装置、设备及存储介质,方法包括:将未知领域的样本图像数据输入预训练的多领域专家混合模型,得到每个领域的专属特征以及所述样本图像的查询特征;计算所述查询特征与所述专属特征的平均相似度,根据所述平均相似度确定所述样本图像与每个领域的相关性;根据领域相关性对每个领域的专属特征进行加权聚合,得到聚合特征;根据所述聚合特征对所述样本图像进行目标重识别。根据本公开实施例提供的提升目标重识别泛化性的方法,通过利用元学习和多领域专家混合模型,对已知领域数据特征进行动态地聚合以生成在未知领域数据上具有强泛化能力的特征,从而提升目标识别领域的泛化性。
-
公开(公告)号:CN113132735A
公开(公告)日:2021-07-16
申请号:CN201911392082.8
申请日:2019-12-30
Applicant: 北京大学
IPC: H04N19/503 , H04N19/136 , H04N19/42 , H04N19/124 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于视频帧生成的视频编码方法,其步骤包括:训练神经网络:每次训练迭代时,从样本视频训练集中抽取一个视频片段的两帧Ik和It送入神经网络中,生成对It的预测计算和目标帧It之间的L1范数并将其反向传播到神经网络,直到神经网络收敛;编码阶段:编码端利用神经网络提取已编码的参考帧和目标待编码非关键帧之间的稀疏运动表征,生成预测帧;将预测帧加入参考帧列表进行帧间预测,然后将帧间预测信息和稀疏运动表征发送给解码端;解码阶段:解码端根据重建的参考帧和传输的稀疏运动表征估计到目标帧的稠密运动信息并生成目标帧;然后将生成的目标帧加入参考帧列表并利用帧间预测信息进行目标帧的重建。
-
公开(公告)号:CN113132727A
公开(公告)日:2021-07-16
申请号:CN201911393847.X
申请日:2019-12-30
Applicant: 北京大学
IPC: H04N19/124 , H04N19/172 , H04N19/42 , H04N19/44 , H04N19/70 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于图像生成的可伸缩机器视觉编码方法,其步骤包括:构建一运动引导图像生成网络;训练神经网络:每次迭代时,从视频序列中选取关键帧与待编码帧及对应的关键点数据并输入网络,计算出关键帧和待编码帧的关键点;根据关键帧与待编码帧的关键点差别进行运动估计;根据估计所得运动以及关键帧获得待编码帧的重建帧;计算关键点位置的预测结果与关键点实际位置之间的预测误差以及计算待编码帧与其重建帧的重建误差,并将其反向传播到网络直到网络收敛;编码阶段:将待处理视频序列的每一帧输入训练后的运动引导图像生成网络,计算每一帧中的关键点的位置信息并进行量化压缩;解码阶段根据码流和任务进行图像重建。
-
公开(公告)号:CN111163318B
公开(公告)日:2021-05-04
申请号:CN202010020628.3
申请日:2020-01-09
Applicant: 北京大学
IPC: H04N19/184 , H04N19/146 , H04N19/136
Abstract: 本申请公开了一种基于反馈优化的人机视觉编码方法,所述方法包括:编码端获取所述目标视频对应的像素特征后输入预设预测模型中生成语义特征;编码端基于所述语义特征生成视频流和特征流;解码端基于所述编码后的特征流和视频流生成解码视频;解码端当接收到针对客户端输入的参数调整指令时,生成码率参数发送至编码端;编码端获取当前码率;编码端基于所述码率参数对所述当前码率进行调整生成调整后的码率;编码端基于所述调整后的码率增强所述视频流和所述特征流,生成增强后的视频流和增强后的特征流;解码端基于所述增强后的视频流和增强后的特征流对编码端模型进行更新。因此,采用本申请实施例,可以提高视频特征抽取和压缩效率。
-
公开(公告)号:CN110704665A
公开(公告)日:2020-01-17
申请号:CN201910818508.5
申请日:2019-08-30
Applicant: 北京大学
IPC: G06F16/583 , G06F16/532 , G06N3/04 , G06N3/08
Abstract: 本发明涉及计算机视觉领域,特别涉及一种基于视觉注意力机制的图像特征表达方法及系统。包括将图片输入训练好的深度网络模型对图片进行特征提取,得到该图片的注意力特征值,计算图片的特征值与目标图片特征值的距离,选择距离最近的若干目标图片展示。本发明利用多尺度注意力网络实现特征提取、距离度量一体化的目标检索检索框架,与传统算法相比,处理速度和准确率均得到较好提升。
-
-
-
-
-
-
-
-
-