-
公开(公告)号:CN115713669B
公开(公告)日:2023-12-05
申请号:CN202211373788.1
申请日:2022-11-04
IPC: G06V10/774 , G06V10/764 , G06V10/82 , G06N3/08 , G06N3/0464
Abstract: 本发明公开了一种基于类间关系的图像分类方法、装置、存储介质及终端,方法包括:获取待识别目标图像;将待识别目标图像输入预先训练的图像分类模型中;预先训练的图像分类模型是根据已知图像类别样本和未知图像类别样本训练生成的,已知图像类别样本和未知图像类别样本是根据目标域图像特征对目标域图像数据进行类间关系分离处理生成的;输出待识别目标图像对应的多个类别概率值,根据多个类别概率值确定待识别目标图像的最终类别。由于本申请充分利用了类间关系,能够有效的将未知类别图像从目标域图像数据中分离出来,解决了负向迁移问题,使域自适应技术在开集条件下也能工作,使得未知类别样本特征更具判别力,能高效地识别未知类别的图片。
-
公开(公告)号:CN115937516B
公开(公告)日:2023-10-03
申请号:CN202211458456.3
申请日:2022-11-21
IPC: G06V10/26 , G06V10/774 , G06V10/82 , G06N3/0442 , G06N3/084
Abstract: 本发明公开了一种图像语义分割方法、装置、存储介质及终端,方法包括:获取并预处理待处理手绘草图数据,生成手绘草图数据的图结构表示;将手绘草图数据的图结构表示输入预先训练的图像语义分割模型中;预先训练的图像语义分割模型是通过根据模型训练样本生成的特征向量训练的,特征向量是将时序信息中所含的序列信息编码到初始特征向量中生成,时序信息和初始特征向量是基于模型训练样本生成;根据预先训练的图像语义分割模型计算并输出待处理手绘草图数据的语义分割结果。本申请在模型训练的过程中可以引导模型关注图像时序信息并将其中蕴含的序列信息编码进提取到的特征向量中,进而强化了模型对图像的特征提取能力,从而提升了语义分割精度。
-
公开(公告)号:CN115937516A
公开(公告)日:2023-04-07
申请号:CN202211458456.3
申请日:2022-11-21
IPC: G06V10/26 , G06V10/774 , G06V10/82 , G06N3/0442 , G06N3/084
Abstract: 本发明公开了一种图像语义分割方法、装置、存储介质及终端,方法包括:获取并预处理待处理手绘草图数据,生成手绘草图数据的图结构表示;将手绘草图数据的图结构表示输入预先训练的图像语义分割模型中;预先训练的图像语义分割模型是通过根据模型训练样本生成的特征向量训练的,特征向量是将时序信息中所含的序列信息编码到初始特征向量中生成,时序信息和初始特征向量是基于模型训练样本生成;根据预先训练的图像语义分割模型计算并输出待处理手绘草图数据的语义分割结果。本申请在模型训练的过程中可以引导模型关注图像时序信息并将其中蕴含的序列信息编码进提取到的特征向量中,进而强化了模型对图像的特征提取能力,从而提升了语义分割精度。
-
公开(公告)号:CN115713669A
公开(公告)日:2023-02-24
申请号:CN202211373788.1
申请日:2022-11-04
IPC: G06V10/774 , G06V10/764 , G06V10/82 , G06N3/08 , G06N3/0464
Abstract: 本发明公开了一种基于类间关系的图像分类方法、装置、存储介质及终端,方法包括:获取待识别目标图像;将待识别目标图像输入预先训练的图像分类模型中;预先训练的图像分类模型是根据已知图像类别样本和未知图像类别样本训练生成的,已知图像类别样本和未知图像类别样本是根据目标域图像特征对目标域图像数据进行类间关系分离处理生成的;输出待识别目标图像对应的多个类别概率值,根据多个类别概率值确定待识别目标图像的最终类别。由于本申请充分利用了类间关系,能够有效的将未知类别图像从目标域图像数据中分离出来,解决了负向迁移问题,使域自适应技术在开集条件下也能工作,使得未知类别样本特征更具判别力,能高效地识别未知类别的图片。
-
公开(公告)号:CN118796629A
公开(公告)日:2024-10-18
申请号:CN202410169169.3
申请日:2024-02-06
Applicant: 中国移动通信有限公司研究院 , 北京邮电大学 , 中国移动通信集团有限公司
Abstract: 本申请公开了一种测试方法、装置、系统、电子设备及可读存储介质,属于云计算技术领域。本申请实施例中的测试方法包括:获取测试设备执行测试任务时得到的测试视频;对所述测试视频进行粗粒度分析,获得粗粒度测试报告;将所述测试视频和所述粗粒度测试报告上报给云端服务器,由所述云端服务器根据所述粗粒度测试报告对所述测试视频进行精细度分析。由此,可以采用端云结合对测试视频进行分级分析,从而准确地获得测试结果。
-
公开(公告)号:CN118351235A
公开(公告)日:2024-07-16
申请号:CN202410352394.0
申请日:2024-03-26
Abstract: 本申请提出一种三维重建方法、装置、设备及存储介质,该方法包括:获取待重建物体在稀疏视角下各视角对应的偏振图像;基于各偏振图像,计算各视角的出射斯托克斯向量;基于各视角的出射斯托克斯向量对各视角下任一点的法向量和光强进行约束,得到针对各视角下任一点的约束结果;基于各视角下所有点的约束结果,对待重建物体进行重建。本申请实施例在物体的重建过程中对物体的各个点进行法向量约束和光强约束,即在重建过程中利用了视角中的几何信息和光度信息,可以在稀疏视角条件下对高反光率的物体进行重建,提高重建物体的完整性。
-
公开(公告)号:CN115952255B
公开(公告)日:2023-12-05
申请号:CN202211457156.3
申请日:2022-11-21
Applicant: 北京邮电大学
IPC: G06F16/33 , G06F16/35 , G06F40/289 , G06F16/683 , G06F16/783 , G06F18/22 , G06F18/241 , G06F18/2415 , G06N3/0464 , G06N3/047 , G06N3/08
Abstract: 本申请公开了一种多模态信号内容分析方法、装置、电子设备及存储介质。该多模态信号内容分析方法包括:获取音频‑视频信号对应的字幕词嵌入特征;利用预训练的字幕代理特征提取模型处理所述字幕词嵌入特征,得到字幕代理特征;基于所述字幕代理特征生成字幕。本申请实施例提供的多模态信号内容分析方法,利用预训练的字幕代理特征提取模型处理所述字幕词嵌入特征,得到字幕代理特征,基于字幕代理特征生成字幕,避免了由于字幕语义差异性对训练的影响,生成的字幕能够更好地描述音频‑视频信号的内容,克服了相关技术中没有考虑字幕差异
-
公开(公告)号:CN117115497A
公开(公告)日:2023-11-24
申请号:CN202310076588.8
申请日:2023-01-16
Applicant: 北京邮电大学
IPC: G06V10/764 , G06V10/774 , G06N20/00
Abstract: 本公开提供了一种类别分类方法、装置、介质及设备,所述方法包括:定义在线类别挖掘数据结构;构构建分类模型,其中,所述分类模型包括:用于特征提取的编码器 和用于将提取到的特征投影到有判别力的表征空间的投影器 基于所述数据结构中用于训练的数据对所述分类模型进行训练;基于所述数据结构中用于测试的数据对训练后的分类模型进行分类测试。本公开的方法与现有技术相比,实现了不依赖辅助信息,面向开放数据,实例级即使预测的未见类别挖掘。在6个常用的分类数据集上验证了本公开所提方法的优越性。
-
公开(公告)号:CN116091867A
公开(公告)日:2023-05-09
申请号:CN202310063908.6
申请日:2023-01-12
Applicant: 北京邮电大学
IPC: G06V10/774 , G06V10/764
Abstract: 本申请提供了一种模型训练、图像识别方法、装置、设备及存储介质,所述方法包括:在源域数据集中随机获取多个图像插曲;构建任务感知的自适应学习网络模型;将所述图像插曲输入所述自适应学习网络模型,得到所述图像插曲中的支持样本与查询样本的特征图;根据所述支持样本与所述查询样本的特征图确定分类损失,根据所述图像插曲与目标域数据集的域偏移确定自适应损失,根据所述分类损失与所述自适应损失确定整体损失;根据所述整体损失调整所述自适应学习网络模型,直至所述整体损失收敛为止。本申请中,通过将域偏移引入损失函数,从而使得训练后的模型可以兼顾具备不同域偏移的目标数据集,达到更准确的图像识别效果。
-
公开(公告)号:CN115439845B
公开(公告)日:2023-05-02
申请号:CN202210922254.3
申请日:2022-08-02
Applicant: 北京邮电大学
Abstract: 本申请涉及一种基于图神经网络的图像外推方法、装置、存储介质及终端。其中,所述方法包括:获取图像外推的原始图像;根据所述原始图像和目标检测器,确定所述图像外推的无向场景图;根据所述无向场景图和图神经网络,推测所述图像外推的外推场景图;根据所述外推场景图、所述原始图像和生成对抗网络,生成所述图像外推的外推图像。本申请能够根据原始图像生成外推图像,且生成的外推图像更具真实性。
-
-
-
-
-
-
-
-
-