-
公开(公告)号:CN113920379A
公开(公告)日:2022-01-11
申请号:CN202111323019.6
申请日:2021-11-09
Applicant: 北京工业大学
IPC: G06V10/764 , G06V10/774 , G06V10/82 , G06N3/04 , G06N3/08
Abstract: 本发明涉及一种基于知识辅助的零样本图像分类方法,用于解决图卷积神经网络和知识图的算法无法充分利用视觉和语义知识,导致零样本图像分类准确性低的问题。为此本发明提出了视觉知识辅助模块与语义知识辅助模块,进一步提升了现有模型的图像分类精度。视觉知识辅助模块中利用每个类的样本视觉特征中心及其对应标签设计一个分类损失函数,促使模型挖掘真实的视觉知识。语义知识辅助模块通过将分类器参数重构回语义特征的方式,保证了语义知识在卷积网络中重要信息不被损害。此外还添加了一个简单的残差卷积网络进一步提高模型在AWA2数据集上的表现。本发明在的AWA2数据集和ImageNet数据集上都取得了良好的实验结果。
-
公开(公告)号:CN113538662A
公开(公告)日:2021-10-22
申请号:CN202110765943.3
申请日:2021-07-05
Applicant: 北京工业大学
Abstract: 一种基于RGB数据的单视角三维物体重建方法及装置,能够将对象三维重建任务转换成基底系数矩阵的生成问题,挖掘可见部分和遮挡部分形状之间的关系,从而得到具有精确细节信息的三维体素,提升了三维模型重建精度。方法包括:(1)建立从潜在特征到初始三维体素的生成模型,该潜在特征由基底和系数线性组合而成。令训练集中的样本张成形状空间,经编码‑解码后得到其形状潜空间,对其进行矩阵分解求得基底表示Θ;利用系数回归网络实现系数回归任务,将测试集中的图像再经编码过程回归其对应形状的系数矩阵Y;则基底Θ和系数Y的线性组合实现基于图像的三维模型重建。(2)建模体素数据为切片数据,利用设计的切片Transformer对初始三维体素进行细化处理,实现基于图像的精细化三维模型重建。
-
公开(公告)号:CN113095328A
公开(公告)日:2021-07-09
申请号:CN202110318561.6
申请日:2021-03-25
Applicant: 北京工业大学
Abstract: 本发明公开了一种基尼指数引导的基于自训练的语义分割方法,本发明提出基尼指数指导的自训练方法,利用基尼指数作为选取更为准确伪标签的指标,引入更多可靠的监督信息,可靠性的伪标签进行自监督训练,基于衡量不确定性和赋予伪标签的方式在训练阶段引入正确的监督信息,减小源域和目标域的差异,提高语义标注精度。
-
公开(公告)号:CN112801142A
公开(公告)日:2021-05-14
申请号:CN202110028634.8
申请日:2021-01-08
Applicant: 北京工业大学
Abstract: 本发明涉及一类基于张量自回归滑动平均模型的视频分类方法,用于解决传统的视频数据处理方法不能充分利用视频数据中潜在的结构信息,造成视频数据内部的时域信息丢失,同时数据向量化造成的维度灾难等问题。首先,将视频序列表示为张量型数据,同时引入经典的时间序列表示方法‑自回归滑动平均模型。然后,应用张量分解得到观测矩阵和潜在的低维度的核张量的转移矩阵,该核张量是原始视频序列张量的一种有意义的、独一无二的表示。将观测矩阵和转移矩阵构建视频序列张量所对应的视觉矩阵序列,其可以映射为流形中的一个点。在对视频进行分类时,可以通过度量每个视频数据的视觉矩阵序列在流形中的相似性距离,进而对视频序列进行分类。
-
公开(公告)号:CN109858546B
公开(公告)日:2021-03-30
申请号:CN201910081619.2
申请日:2019-01-28
Applicant: 北京工业大学
IPC: G06K9/62
Abstract: 公开一种基于稀疏表示的图像识别方法,其能够通过自适应地选择训练样本进行多轮训练,学习多个字典,每个字典有针对性地学习其他字典表示精度欠佳的样本,每个字典对应一个有针对性的弱分类器,对多个弱分类器的分类结果进行加权组合,提升传统稀疏表示应用于分类问题的识别精度。该方法包括以下步骤:(1)基于自适应增强字典学习过程学习多个字典及相应的弱分类器,并计算分类器权值系数;(2)基于步骤(1)学习的多个字典计算待分类数据的稀疏表示向量,再利用相应的弱分类器进行分类,加权组合各弱分类器识别结果而得到最终识别结果。
-
公开(公告)号:CN111914622A
公开(公告)日:2020-11-10
申请号:CN202010548298.5
申请日:2020-06-16
Applicant: 北京工业大学
Abstract: 公开一种基于深度学习的人物交互检测方法,其能够提升预测精度,使模型推理速度更快。该方法包括:(1)目标检测:对RGB图像中的对象实例进行目标检测,以获取对象的检测框、对象类别和对象检测得分,并提供给人物交互检测阶段进行 对实例的人物交互检测;(2)人物交互检测:通过基于深度学习的人物交互检测算法SKA-Net来进行人物交互检测。
-
公开(公告)号:CN110298392A
公开(公告)日:2019-10-01
申请号:CN201910508416.7
申请日:2019-06-13
Applicant: 北京工业大学
Abstract: 一种标签约束自权重多超图学习的半监督分类方法,其能够针对每种特征,基于自适应近邻策略构建超图以编码样本之间的高阶关系;对于构建好的多个超图,自适应地学习每个超图的权重;并建立标签约束自权重多超图学习模型,完成半监督分类任务。该方法包括:(1)对待分类任务的数据确定m种特征表示,依据每种特征构建一个超图,计算每个超图的相关矩阵H(t),t=1,...,m;(2)计算各超图的拉普拉斯矩阵L(t),t=1,...,m;(3)对于每个超图,初始化权重α(t)=1/m,t=1,...m;(4)利用进行多超图融合;(5)计算无标签样本的指示矩阵Fu;(6)令F=[Yl;Fu],更新权重(7)迭代进行步骤(4)、(5)、(6),直到收敛或达到最大迭代次数;(8)计算无标签样本标签;(9)输出标签;(10)结束。
-
公开(公告)号:CN109977787A
公开(公告)日:2019-07-05
申请号:CN201910156308.8
申请日:2019-03-01
Applicant: 北京工业大学
Abstract: 公开一种多视角的人体行为识别方法,其能够有效地提取更具判别性、鲁棒的特征,从而提高了多视角的人体行为的识别精度。这种多视角的人体行为识别方法,包括以下步骤:(1)学习一组特定视角的迁移字典,使同一个动作在不同视角下的稀疏表示相同,使不同视角的动作特征迁移到稀疏空间中;(2)通过视角自适应变换模型,将稀疏表示从稀疏空间变换到新的共用空间,该模型联合学习了分布自适应模型、结构一致模型和判别信息保留模型。
-
公开(公告)号:CN105678321B
公开(公告)日:2019-06-21
申请号:CN201511025900.2
申请日:2015-12-31
Applicant: 北京工业大学
Abstract: 本发明公开一种基于融合模型的人体姿态估计方法,其能够充分利用图像特征信息,能够将图像的HOG特征信息和形状特征信息融合,提高了传统图模型结构的人体姿态识别的准确率。包括以下步骤:(1)以人体运动时的二维静态图像为输入数据,获取基于图模型的候选姿态;(2)利用信度函数D‑S融合模型将图像中的特征信息融合,求得最高信度值对应各部位的位置,作为最佳位置,从而获得人体姿态最佳结果。
-
公开(公告)号:CN109741358A
公开(公告)日:2019-05-10
申请号:CN201811634332.X
申请日:2018-12-29
Applicant: 北京工业大学
IPC: G06T7/155
Abstract: 本发明涉及一种基于自适应超图学习的超像素分割方法,属于计算机视觉领域中的图像分割技术,包括以下步骤:步骤一:图像预处理,即对输入的RGB图像进行下采样;步骤二:对预处理后得到的图像进行基于超图的图像表示;步骤三:对构建好的超图进行基于超图学习的超像素分割;步骤四:对输入图像所对应的分割结果进行后处理,包括增强连通性和超像素边界优化两部分。本发明首次将超图的思想引入超像素分割,以此来编码像素之间的高阶关系;利用自适应近邻方法构建超边,有利于准确刻画顶点与超边之间的连接强度;结合Canny算子对超像素边界进行优化,确保进一步提升边界召回率。
-
-
-
-
-
-
-
-
-