-
公开(公告)号:CN114550252B
公开(公告)日:2024-07-12
申请号:CN202210153141.1
申请日:2022-02-18
Applicant: 北京工业大学
IPC: G06V40/16 , G06V10/44 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 一种基于注意力机制的人脸识别方法,属于计算机软件领域。针对现有的主流的人脸识别方法参数量大、资源占用多、运行效率较低的问题,首先构建了一个低参数量的卷积神经网络来保证保证计算过程的高效和低资源消耗。然后加入注意力机制捕获提取其中的跨通道信息,以优化卷积神经网络的整体性能。同时,注意力的引入并不增添多少额外的性能损失和资源消耗。本发明可以在保证高效、快速的进行人脸特征提取的基础上,进一步提升人脸识别的准确率,提升整体效率。
-
公开(公告)号:CN109800437B
公开(公告)日:2023-11-14
申请号:CN201910099671.0
申请日:2019-01-31
Applicant: 北京工业大学
IPC: G06F40/295
Abstract: 一种基于特征融合的命名实体识别方法属于计算机领域,通过两个方面来提取和融合不同粒度的文本特征,概念特征和非概念词特征,从而来提高命名实体识别的准确率并降低计算量。方法包括:数据预处理模块、特征构建模块、训练命名实体网络模型模块和命名实体分类器模块,其中特征模块包括语义特征提取、词特征提取、字符特征提取、特征融合四个子模块。在本方法中结合神经网络模型LSTM(Long Short‑Term Memory)或GRU(Gated Recurrent Unit)的时序记忆特点来考虑命名实体任务的上下文信息,最后使用softmax预测实体类别标签。在模型构建过程中,可以利用稀疏数据作为训练集并对LSTM和GRU两种神经网络模型进行对比,确保本发明在实体识别任务上能取得令人满意的效果。
-
公开(公告)号:CN116563937A
公开(公告)日:2023-08-08
申请号:CN202310106799.1
申请日:2023-02-13
Applicant: 北京工业大学
Abstract: 本发明公开了基于关键帧的多粒度特征学习步态识别方法,该方法对步态序列内的步态轮廓图进行关键帧提取,选择出对识别结果影响大的步态轮廓图,将其组成为关键帧序列。关键帧序列与原步态序列分别进行步态特征的提取,最终融合成识别特征,使得提取的识别特征更具有判别性;在特征提取时关注时序信息,并且将全局特征与局部特征融合。该发明使用交叉熵损失与三元组损失优化识别特征以提高识别的准确率。本发明解决了过去基于序列的步态识别技术在识别时无差别化特征提取、局部特征提取不充分以及时序特征提取不充分的问题。本发明适用于行人的步态识别任务,识别准确率高,算法鲁棒性好。本发明在步态识别领域有着广泛的应用。
-
公开(公告)号:CN116311501A
公开(公告)日:2023-06-23
申请号:CN202310106798.7
申请日:2023-02-13
Applicant: 北京工业大学
IPC: G06V40/20 , G06V10/44 , G06V10/80 , G06N3/08 , G06N3/0464
Abstract: 本发明公开了一种基于事件相机的步态识别方法,该方法首先将一段完整的神经传感器生成的异步脉冲信号在时域上按照不同尺度分别进行切分,并分别经过时间帧生成模块和空间帧生成模块得到对应的时间帧和空间帧。时间帧通过时间特征提取后得到包含时间信息的特征,并利用3DCNN进行特征融合。空间帧通过空间特征提取后得到包含空间信息的特征。其中,将1通道的时间帧和空间帧拼接后,送入ViT网络,得到图像的时空特征。最后将三部分的特征拼接后,得到整个视频序列的行人步态总特征。本发明解决了过去传统的基于RGB视频的步态识别算法对环境条件和摄像机条件要求较为苛刻的问题,可在视频监控、安全检查、刑侦等领域广泛应用。
-
公开(公告)号:CN111309909B
公开(公告)日:2021-07-30
申请号:CN202010091064.2
申请日:2020-02-13
Applicant: 北京工业大学
Abstract: 一种基于混合模型的文本情感分类方法属于计算机软件领域。该方法主要包含数据处理层、机器学习处理层、CNN处理层、LSTM‑Attention处理层、自适应决策层。待分类数据经过机器学习处理层、CNN处理层和LSTM‑Attention处理层分别处理,最后将其处理结果一同输入到自适应决策层中,自适应决策层根据不同处理层以往的分类结果自适应调整各层结果所占的权重,从而得到最终的分类结果。相比单一的机器学习和单一的深度学习方法,该方法处理效果明显,并且结果具有良好的可解释性,应用前景广泛。
-
公开(公告)号:CN107274419B
公开(公告)日:2020-10-13
申请号:CN201710555319.4
申请日:2017-07-10
Applicant: 北京工业大学
Abstract: 本发明公开一种基于全局先验和局部上下文的深度学习显著性检测方法,首先对彩色图像和深度图像进行超像素分割,基于每个超像素的紧凑性、独特性和背景性等中层特征,获得每个超像素的全局先验特征图,并进一步通过深度学习模型,得到全局先验显著图;然后,结合全局先验显著图和彩色图像与深度图像中的局部上下文信息,通过深度学习模型,得到初始显著图;最后,依据空间一致性和外观相似性优化初始显著图,得到最终显著图。应用本发明,解决了传统显著性检测方法无法有效检测到复杂背景图像中的显著物体,还解决了现有的基于深度学习的显著性检测方法由于提取出的高层特征存在噪声而导致误检的问题。
-
公开(公告)号:CN106789149B
公开(公告)日:2020-08-14
申请号:CN201611028230.4
申请日:2016-11-18
Applicant: 北京工业大学
Abstract: 本发明提供一种采用改进型自组织特征神经网络聚类算法的入侵检测方法,对云存储系统环境下日志文件数据进行数据清洗,利用基于双层聚类算法的一种自组织特征映射神经网络聚类方法对清洗后的日志数据进行训练,产生数据分类的结果,基于PCA算法进行异常分析从而达到入侵检测的目的。
-
公开(公告)号:CN111179314A
公开(公告)日:2020-05-19
申请号:CN201911389973.8
申请日:2019-12-30
Applicant: 北京工业大学
Abstract: 本发明提供了一种基于残差密集孪生网络的目标跟踪方法,该方法首先在视频第一帧图像中提取待跟踪目标的模板图像,并将其输入到残差密集网络,获得初始模板特征,将提取的特征进一步输入全局注意力模块,获得模板特征,完成跟踪器初始化;然后对第t帧图像裁剪提取搜索区域图像,并将其输入到残差密集网络获得搜索区域特征;最后,将模板特征和搜索区域特征输入候选区域生成网络,得到前景与背景分类置信度和边界框回归估计值,进一步得到第t帧跟踪结果。应用本发明,解决了现有基于孪生网络的目标跟踪方法无法有效处理背景杂乱、相似语义干扰的问题,还解决了现有基于孪生网络的目标跟踪方法跟踪准确度低,鲁棒性差的问题。
-
公开(公告)号:CN111161306A
公开(公告)日:2020-05-15
申请号:CN201911402450.2
申请日:2019-12-31
Applicant: 北京工业大学
Abstract: 本发明提供了一种基于运动注意力的视频目标分割方法,该方法将通道注意力模块输出的通道特征图和运动注意力模块输出的位置特征图进行相加,获得当前帧的分割结果。其中,通道注意力模块的输入为当前帧特征图Ft和第一帧提供的目标物体的外观特征图F0,通道注意力模块通过计算输入特征图Ft和F0通道之间的关联,输出的通道特征图反映了当前帧中外观最接近目标物体的物体;运动注意力模块的输入为当前帧特征图Ft和前一帧运动注意力网络中的记忆模块预测的目标物体的位置信息Ht-1,运动注意力模块通过计算输入特征图Ft和Ht-1位置之间的关联,输出的位置特征图反映了当前帧中目标物体的大致位置。本发明结合外观和位置两个因素,实现了对视频目标更精确的分割。
-
公开(公告)号:CN110555083A
公开(公告)日:2019-12-10
申请号:CN201910790569.5
申请日:2019-08-26
Applicant: 北京工业大学
IPC: G06F16/28
Abstract: 一种基于zero-shot无监督实体关系抽取方法属于计算机领域,通过提取文本数据中的三元组特征和领域知识图谱中的实体关系类型特征,并计算它们之间的相似度来判断实体关系类别,从而减少传统实体关系抽取方法对人工标注的依赖,并提高实体关系抽取的准确率。方法包括:数据预处理、特征提取、训练关系抽取网络模型和实体关系分类器。本方法将采用善于捕捉句子信息的卷积神经网络模型来分别提取三元组和关系类型特征,最后使用softmax预测实体关系类型标签。在模型构建过程中,可以利用稀疏标记的语料库作为训练集,在测试过程中也可以利用与训练过程中相同的参数来预测未标注三元组的类型。
-
-
-
-
-
-
-
-
-