一种基于正则约束的图神经网络文本分类方法

    公开(公告)号:CN114896400B

    公开(公告)日:2024-06-21

    申请号:CN202210532864.2

    申请日:2022-05-11

    Inventor: 甘玲 刘菊 胡柳慧

    Abstract: 本发明涉及一种基于正则约束的图神经网络文本分类方法,属于自然语言处理领域,包括以下步骤:构图:采用TextING的构图方法构图,添加语义边和语法边,并定义不同边的类型,初始化边类型特征Ec,输入图神经网络中进行训练;基于图神经网络进行单词交互:采用带多样正则约束的GAT为邻域结点分配不同注意力权重来过滤边噪声信息,引导注意力分数分布减少重叠;文本表示:通过最大池化和平均池化将单词结点特征聚合为篇章表示,根据篇章表示获得文本的分类结果,并定义损失函数来约束结点特征的更新过程。本发明丰富了单词间语法语义相关性,提高了长距离和非连续的单词交互能力,提高了模型表达能力。

    一种基于深度哈希和量化的图像检索方法及存储介质

    公开(公告)号:CN110688502B

    公开(公告)日:2022-12-27

    申请号:CN201910846400.7

    申请日:2019-09-09

    Abstract: 本发明请求保护一种基于深度哈希和量化的图像检索方法及存储介质,首先建立训练集和测试集,对需要识别的图像进行预处理,然后构建卷积神经网络,采用Alexnet模型结构作为基本架构,再利用训练样本随时生成数据对,根据卷积神经网络进行训练,得到相应的输出值Zn。通过将图像类别通过Glove模型处理得到嵌入标签V,再结合嵌入标签V,计算卷积神经网络输出值的误差函数,并更新网络参数,最后,将查询图像和数据库图像分别通过训练好的模型处理得到相应的二值编码后,通过非对称距离量化方法计算内积相似性,输出检索结果。本发明引入分块编码模块,利用精心设计的混合网络和指定的损失函数,联合学习深度视语义标签,大大提高了图像检索的准确性。

    一种基于关键词的多粒度中文短文本匹配方法

    公开(公告)号:CN115114932A

    公开(公告)日:2022-09-27

    申请号:CN202210738535.3

    申请日:2022-06-24

    Abstract: 本发明涉及一种基于关键词的多粒度中文短文本匹配方法,属于自然语言处理领域,包括以下步骤:S1:将句子分为字和词两个粒度,将两个粒度的句子统一填充到长度N,在对应数据集上训练Word2Vec,获得字和词两个粒度的嵌入表示;S2:用两个BiGRU对句子向量进行编码,获得句子两个方向的上下文信息;S3:用交叉注意力获得字粒度特征和词粒度特征之间的关联,再对其及逆行平均池化并连接获得句子最终的表示向量;S4:连接两句子的词粒度嵌入向量,用11层Transformer编码器和一层关注关键词的Transformer进行编码;S5:连接关键词特征和两句子的表示向量作为最终的预测向量。

    结合相对位置信息的弱监督文本分类方法

    公开(公告)号:CN114969343A

    公开(公告)日:2022-08-30

    申请号:CN202210639693.3

    申请日:2022-06-07

    Abstract: 本发明涉及一种结合相对位置信息的弱监督文本分类方法,属于自然语言处理领域,包括以下步骤:S1:输入初始化种子词,以及与初始化种子词同类的为标记文档;S2:生成伪标签;S3:基于生成的伪标签训练Transformer文本分类器;S4:通过文本分类器为未标记的文本分配标签;S5:通过比较排序方法,更新每一个类别的种子词,返回步骤S2进行迭代训练。本发明提升了模型的学习能力,提高了分类的准确率。

    一种基于自适应特征融合的长时相关滤波目标跟踪方法

    公开(公告)号:CN113537241A

    公开(公告)日:2021-10-22

    申请号:CN202110807192.7

    申请日:2021-07-16

    Abstract: 本发明涉及一种基于自适应特征融合的长时相关滤波目标跟踪方法,属于计算机视觉领域。该方法包括:在目标的位置预测阶段,分别提取每一帧图像的HOG特征和颜色直方图特征,利用核相关滤波器和颜色直方图模型分别得到每种特征的响应图,并对每种特征响应图的峰值进行归一化以此来动态调整不同特征的权重,实现了特征的自适应融合,并根据融合后的特征响应图估计出跟踪目标位置;同时设置两个置信度检测指标、并额外训练一个检测滤波器和SVM分类器,分别用来检测当前跟踪目标是否可靠即目标是否丢失和对丢失目标位置的重新定位,以此实现对目标长时间的跟踪。

    基于DCU编码和自注意力机制的机器阅读理解方法

    公开(公告)号:CN111414762A

    公开(公告)日:2020-07-14

    申请号:CN202010102851.2

    申请日:2020-02-19

    Inventor: 甘玲 陈辉龙

    Abstract: 本发明涉及基于DCU编码和自注意力机制的机器阅读理解方法,属于计算机技术领域。该方法包括以下步骤:S1:搭建嵌入层;S2:搭建DCU编码层;S3:搭建自注意力层;S4:选择数据集;S5:选择评价指标;S6:实验;本发明将训练时间缩短到了原模型的三分之一,并且在评价指标ROUGE-L和BLEU-4上分别提升了2.69和1.91个百分点,证明了:DCU和自注意力机制不仅能更好的获取文档的全局上下文信息,而且时间开销更小;采用预训练好的词向量能显著提升模型的整体性能。

    一种基于提示学习的中文词义消歧方法

    公开(公告)号:CN114997149B

    公开(公告)日:2025-04-11

    申请号:CN202210625550.7

    申请日:2022-06-02

    Abstract: 本发明涉及一种基于提示学习的中文词义消歧方法,属于计算机技术领域。基于BERT的大多数方法都采用使用BERT迁就下游任务的形式,首先将预训练模型应用到下游任务上,然后再通过微调预训练语言模型提升性能。但随着预训练语言模型体量不断地增大,对其微调的硬件要求和实际代价也在变得更艰难。中文的BERT是基于字的,大多数基于BERT的词义消歧模型在预训练MLM模型任务中只能以字为单位去添加MASK标记,词是取得字的平均,对词的表达不够准确。本发明主要解决中文词义消歧模型存在的消歧效率低、监督分类时需要大量数据标注以及未充分利用BERT的自身能力等问题。

    一种基于注意力和分层候选用户兴趣的新闻推荐系统

    公开(公告)号:CN117194784A

    公开(公告)日:2023-12-08

    申请号:CN202311155625.0

    申请日:2023-09-07

    Inventor: 甘玲 林少瑜

    Abstract: 本发明涉及一种基于注意力和分层候选用户兴趣的新闻推荐系统,属于自然语言处理领域,包括新闻编码器、用户编码器和兴趣匹配模块;所述新闻编码器采用trnasformer结合注意力的方式来学习新闻文本表示,对新闻文本进行多粒度的特征提取,获取语义信息,同时结合分成兴趣树进行多粒度兴趣捕捉,与候选新闻匹配;所述用户编码器利用新闻类别标签来构建分层的用户兴趣表示,并通过学习一个层次化的兴趣树来捕捉多样化和多层次的用户兴趣;所述兴趣匹配模块采用候选新闻和分层用户兴趣表示作为输入,计算用户级兴趣得分。

    一种基于融合标签图的双图卷积网络的文本情感多分类方法

    公开(公告)号:CN115391529A

    公开(公告)日:2022-11-25

    申请号:CN202211017366.0

    申请日:2022-08-23

    Inventor: 甘玲 陈祚杰

    Abstract: 本发明涉及一种基于融合标签图的双图卷积网络的文本情感多分类方法,属于计算机技术领域。该方法包括以下步骤:S1:句子编码层;S2:标签图嵌入;S3:句法图卷积网络SynGCN;S4:语义图卷积网络SemGCN;S5:双仿射变换。本发明针对现有的研究大都只考虑了句子的语义表示,忽略句子的语法信息,发明了一种双图卷积网络,即句法图卷积网络和语义图卷积网络,该方法能同时提取句子的句法信息和语义信息。以往的模型忽略了标签的语义信息,基于此本发明了标签图嵌入,通过将标签图表示和语义图卷积网络融合,使得模型能够学习更加精确的语义表示和捕获标签和文本中单词之间的潜在关系。

    一种基于提示学习的中文词义消歧方法

    公开(公告)号:CN114997149A

    公开(公告)日:2022-09-02

    申请号:CN202210625550.7

    申请日:2022-06-02

    Abstract: 本发明涉及一种基于提示学习的中文词义消歧方法,属于计算机技术领域。基于BERT的大多数方法都采用使用BERT迁就下游任务的形式,首先将预训练模型应用到下游任务上,然后再通过微调预训练语言模型提升性能。但随着预训练语言模型体量不断地增大,对其微调的硬件要求和实际代价也在变得更艰难。中文的BERT是基于字的,大多数基于BERT的词义消歧模型在预训练MLM模型任务中只能以字为单位去添加MASK标记,词是取得字的平均,对词的表达不够准确。本发明主要解决中文词义消歧模型存在的消歧效率低、监督分类时需要大量数据标注以及未充分利用BERT的自身能力等问题。

Patent Agency Ranking