-
公开(公告)号:CN111583263B
公开(公告)日:2022-09-23
申请号:CN202010364651.4
申请日:2020-04-30
Applicant: 北京工业大学
IPC: G06T7/10
Abstract: 本发明涉及一种基于联合动态图卷积的点云数据自动分割方法,包括:设计并实现联合动态图卷积层用于局部特征提取,具体地,联合动态图卷积层首先根据输入计算得到各点的K近邻连边点构建图,因此经过每个联合动态图卷积层构建的图在训练中都是动态变化的。之后联合所有浅层的特征图,将所有K近邻连边点的浅层特征向量拼接后,再经过MLP并进行最大池化后得到该点的输出特征向量,然后将所有点的输出特征向量组合得到点云特征图;基于联合动态图卷积层构建深度神经网络;强化网络训练目标,训练时在经典的交叉熵损失函数的基础上增加点的类特征相似约束,以优化网络的训练。最后将待测点云输入训练好的网络中得到点云分割结果。
-
公开(公告)号:CN113920379A
公开(公告)日:2022-01-11
申请号:CN202111323019.6
申请日:2021-11-09
Applicant: 北京工业大学
IPC: G06V10/764 , G06V10/774 , G06V10/82 , G06N3/04 , G06N3/08
Abstract: 本发明涉及一种基于知识辅助的零样本图像分类方法,用于解决图卷积神经网络和知识图的算法无法充分利用视觉和语义知识,导致零样本图像分类准确性低的问题。为此本发明提出了视觉知识辅助模块与语义知识辅助模块,进一步提升了现有模型的图像分类精度。视觉知识辅助模块中利用每个类的样本视觉特征中心及其对应标签设计一个分类损失函数,促使模型挖掘真实的视觉知识。语义知识辅助模块通过将分类器参数重构回语义特征的方式,保证了语义知识在卷积网络中重要信息不被损害。此外还添加了一个简单的残差卷积网络进一步提高模型在AWA2数据集上的表现。本发明在的AWA2数据集和ImageNet数据集上都取得了良好的实验结果。
-
公开(公告)号:CN113538662A
公开(公告)日:2021-10-22
申请号:CN202110765943.3
申请日:2021-07-05
Applicant: 北京工业大学
Abstract: 一种基于RGB数据的单视角三维物体重建方法及装置,能够将对象三维重建任务转换成基底系数矩阵的生成问题,挖掘可见部分和遮挡部分形状之间的关系,从而得到具有精确细节信息的三维体素,提升了三维模型重建精度。方法包括:(1)建立从潜在特征到初始三维体素的生成模型,该潜在特征由基底和系数线性组合而成。令训练集中的样本张成形状空间,经编码‑解码后得到其形状潜空间,对其进行矩阵分解求得基底表示Θ;利用系数回归网络实现系数回归任务,将测试集中的图像再经编码过程回归其对应形状的系数矩阵Y;则基底Θ和系数Y的线性组合实现基于图像的三维模型重建。(2)建模体素数据为切片数据,利用设计的切片Transformer对初始三维体素进行细化处理,实现基于图像的精细化三维模型重建。
-
公开(公告)号:CN113095328A
公开(公告)日:2021-07-09
申请号:CN202110318561.6
申请日:2021-03-25
Applicant: 北京工业大学
Abstract: 本发明公开了一种基尼指数引导的基于自训练的语义分割方法,本发明提出基尼指数指导的自训练方法,利用基尼指数作为选取更为准确伪标签的指标,引入更多可靠的监督信息,可靠性的伪标签进行自监督训练,基于衡量不确定性和赋予伪标签的方式在训练阶段引入正确的监督信息,减小源域和目标域的差异,提高语义标注精度。
-
-
公开(公告)号:CN111914622A
公开(公告)日:2020-11-10
申请号:CN202010548298.5
申请日:2020-06-16
Applicant: 北京工业大学
Abstract: 公开一种基于深度学习的人物交互检测方法,其能够提升预测精度,使模型推理速度更快。该方法包括:(1)目标检测:对RGB图像中的对象实例进行目标检测,以获取对象的检测框、对象类别和对象检测得分,并提供给人物交互检测阶段进行 对实例的人物交互检测;(2)人物交互检测:通过基于深度学习的人物交互检测算法SKA-Net来进行人物交互检测。
-
公开(公告)号:CN106991372B
公开(公告)日:2020-08-28
申请号:CN201710120922.X
申请日:2017-03-02
Applicant: 北京工业大学
Abstract: 本发明公开一种基于混合深度学习模型的动态手势识别方法包括:训练阶段,首先基于构成手势视频的图像集训练CNN,然后利用训练好的CNN逐帧提取动态手势视频序列每帧的空间特征;对待识别的每个手势视频序列,将CNN学习到的各帧级特征按时间顺序组织成矩阵;把该矩阵输入到MVRBM以学习融合时空属性的手势动作时空特征;引入具有判别性的NN;即把MVRBM看作NN模型参数的预训练过程,把MVRBM学到的网络权值和偏置作为NN的权值和偏置的初值,并通过反向传播算法微调NN权值和偏置;测试阶段,同样基于CNN逐帧提取动态手势视频序列每帧特征并拼接,输入前述训练好的NN进行手势识。采用本发明的技术方案,实现对3D动态手势视频序列的有效时空表示。
-
公开(公告)号:CN108320504B
公开(公告)日:2020-06-16
申请号:CN201810057716.3
申请日:2018-01-22
Applicant: 北京工业大学
IPC: G08G1/01
Abstract: 基于监测数据的动态OD矩阵估计方法属于智能交通领域,传统的方法没有考虑到部分实际路网OD矩阵的稀疏性,计算出的OD矩阵及分配在路网上的流量与实际有较大偏差;而且在求解过程中,将OD矩阵分配到路网上往往需要一定时间,尤其是当路段陷入拥堵时,传统的OD矩阵分配算法需要较长时间,难以满足实时性要求。本发明构建了稀疏约束下的动态OD矩阵估计模型,并提出了一种稀疏约束下的动态OD矩阵估计快速算法,基于径向基神经网络对OD矩阵分配函数进行拟合。基于此,需要解决的关键问题包括:稀疏约束下的动态OD矩阵估计模型;稀疏约束下的动态OD矩阵估计实时算法。理论上,本发明提出的方案可以更准确地估计动态OD矩阵,并满足实时性要求。
-
公开(公告)号:CN109977787A
公开(公告)日:2019-07-05
申请号:CN201910156308.8
申请日:2019-03-01
Applicant: 北京工业大学
Abstract: 公开一种多视角的人体行为识别方法,其能够有效地提取更具判别性、鲁棒的特征,从而提高了多视角的人体行为的识别精度。这种多视角的人体行为识别方法,包括以下步骤:(1)学习一组特定视角的迁移字典,使同一个动作在不同视角下的稀疏表示相同,使不同视角的动作特征迁移到稀疏空间中;(2)通过视角自适应变换模型,将稀疏表示从稀疏空间变换到新的共用空间,该模型联合学习了分布自适应模型、结构一致模型和判别信息保留模型。
-
公开(公告)号:CN108510009A
公开(公告)日:2018-09-07
申请号:CN201810336621.5
申请日:2018-04-16
Applicant: 北京工业大学
IPC: G06K9/62
Abstract: 本发明公开一种基于判别式矩阵变量受限玻尔兹曼机模型的图像识别方法,采用基于判别的矩阵变量受限玻尔兹曼机用于二维图像分类,记为DisMVRBM,此模型能够直接对图像进行建模,而不需要向量化,保留了原始样本的结构信息。与MVRBM相比,本模型增加了标签层,意味着在提取特征的过程中融入了标签信息,使得提取的特征具有判别性,会提升分类性能;并且由于增加了标签层本模型可以直接当作一个独立的分类器,不用再链接其他的分类器,省去了对其他分类器的微调训练阶段。
-
-
-
-
-
-
-
-
-