-
公开(公告)号:CN115017316B
公开(公告)日:2025-04-08
申请号:CN202210669824.2
申请日:2022-06-14
Applicant: 北京理工大学 , 北京理工大学东南信息技术研究院
IPC: G06F16/35 , G06F40/126 , G06F40/186 , G06F18/214
Abstract: 本发明涉及一种基于动态前缀提示信息的事件抽取方法,属于计算机自然语言处理技术领域。本方法根据输入文本结合所有可能的事件类型,动态构造可调整的稠密的前缀信息,由此增强前缀信息的表现力,提高了数据的利用率。同时,利用相关性分类器将不包含事件实例的文本排除,减少了不相关信息的干扰。本方法克服了现有的基于生成的事件抽取方法中人工构造离散提示文本的次优性,事件类型信息与文本上下文相隔绝等技术缺陷。本方法在精确率、召回率、F1值评测指标等方面都有显著提升。
-
公开(公告)号:CN119514636A
公开(公告)日:2025-02-25
申请号:CN202411485750.2
申请日:2024-10-23
Applicant: 北京理工大学东南信息技术研究院 , 北京理工大学
IPC: G06N3/09 , G06F40/237 , G06F40/284 , G06N3/0464 , G06F40/216 , G06N3/0455 , G06N3/047 , G06N3/084
Abstract: 本申请提供一种轻量级中英双语大语言模型的两阶段训练方法,方法包括:步骤1,进行中英文训练数据收集与预处理;预处理流程包括特殊标记清除,敏感数据清理、数据去重、去除广告、格式化处理;步骤2,第一阶段高资源语言训练,即利用英语进行模型训练;步骤3,进行第二阶段双语混合训练,采用语言迁移训练,将中文数据和英文数据混杂进行第二阶段训练;其中,步骤3包括:步骤31,进行词表扩展;步骤32,语言迁移训练。本申请能够提高双语处理能力。
-
公开(公告)号:CN112784013B
公开(公告)日:2022-10-04
申请号:CN202110039994.8
申请日:2021-01-13
Applicant: 北京理工大学 , 北京理工大学东南信息技术研究院
Abstract: 本发明涉及一种基于上下文语义的多粒度文本推荐方法,属于计算机自然语言处理技术领域。本方法利用文档级的主题过滤方法,缩减了候选文本集合的大小,大大缩减模型推荐的时间,同时提高文本推荐的准确性。本方法首次提出了多粒度的文本推荐方法,能够在文档级、段落级和句子级等多个语言粒度上进行文本推荐,并通过单一的模型完成推荐过程,提高了用户的使用效率。
-
公开(公告)号:CN115017316A
公开(公告)日:2022-09-06
申请号:CN202210669824.2
申请日:2022-06-14
Applicant: 北京理工大学 , 北京理工大学东南信息技术研究院
IPC: G06F16/35 , G06F40/126 , G06F40/186 , G06K9/62
Abstract: 本发明涉及一种基于动态前缀提示信息的事件抽取方法,属于计算机自然语言处理技术领域。本方法根据输入文本结合所有可能的事件类型,动态构造可调整的稠密的前缀信息,由此增强前缀信息的表现力,提高了数据的利用率。同时,利用相关性分类器将不包含事件实例的文本排除,减少了不相关信息的干扰。本方法克服了现有的基于生成的事件抽取方法中人工构造离散提示文本的次优性,事件类型信息与文本上下文相隔绝等技术缺陷。本方法在精确率、召回率、F1值评测指标等方面都有显著提升。
-
公开(公告)号:CN112784013A
公开(公告)日:2021-05-11
申请号:CN202110039994.8
申请日:2021-01-13
Applicant: 北京理工大学 , 北京理工大学东南信息技术研究院
Abstract: 本发明涉及一种基于上下文语义的多粒度文本推荐方法,属于计算机自然语言处理技术领域。本方法利用文档级的主题过滤方法,缩减了候选文本集合的大小,大大缩减模型推荐的时间,同时提高文本推荐的准确性。本方法首次提出了多粒度的文本推荐方法,能够在文档级、段落级和句子级等多个语言粒度上进行文本推荐,并通过单一的模型完成推荐过程,提高了用户的使用效率。
-
公开(公告)号:CN119514633A
公开(公告)日:2025-02-25
申请号:CN202411485748.5
申请日:2024-10-23
Applicant: 北京理工大学东南信息技术研究院 , 北京理工大学
IPC: G06N3/084 , G06F40/284 , G06N3/0464 , G06F40/216 , G06F40/194 , G06F21/62 , G06N3/048 , G06N3/047
Abstract: 本申请提供一种轻量级中英双语大语言模型的训练方法,方法包括:步骤1,进行中英文训练数据收集与预处理;步骤2,进行预训练;步骤21,进行文本分词;步骤22,文本编码:步骤23,旋转位置编码:在输入层采用在注意力层的旋转位置编码;步骤24,设定注意力机制、残差网络、标准化层和全连接网络输出层与自回归训练方式;步骤25,选择预训练数据;步骤26,进行预训练;每个批次使用中英文数据交叉的方式进行输入,即交叉从英文数据和中文数据中各采样一条,直到达到训练批次大小后输入到模型中进行训练。步骤3,指令微调训练。本申请极高的灵活性和适应性。
-
公开(公告)号:CN118364798A
公开(公告)日:2024-07-19
申请号:CN202410514120.7
申请日:2024-04-26
Applicant: 北京理工大学 , 北京理工大学东南信息技术研究院
IPC: G06F40/186 , G06F40/205 , G06F40/126 , G06N20/00 , G06F9/448
Abstract: 本申请提供一种理解文本提高大语言模型工具学习的方法,方法包括:步骤一、API描述生成;步骤二、构建Query的上下文信息;步骤三、构建候选API集合,缩小大语言模型搜索API的范围;步骤四、利用大语言模型对Query进行回答;步骤五、设计Cos_F1对生成内容进行自动评价,利用目标Query和答案之间的余弦相似度表示一致性和差异性。创新性的加强了对开放大语言模型中AP功能的理解,并通过使用机器生成的API功能描述代替人类描述来提高API调用的准确性。
-
公开(公告)号:CN116956922A
公开(公告)日:2023-10-27
申请号:CN202310909646.0
申请日:2023-07-24
Applicant: 北京理工大学东南信息技术研究院 , 北京理工大学
IPC: G06F40/295 , G06F40/30 , G06N3/0499
Abstract: 本发明涉及一种利用大语言模型增强的生成式跨语言事件抽取方法,属于计算机人工智能和自然语言处理技术领域。本方法首先使用大语言模型,将各语言的文本信息进行事件预抽取,得到各种语言的大模型事件抽取结果,并将其解析为可用的文本提示为模型训练做准备,然后构建训练所需的文本提示,将输入的文本提示向量化表示,最后使用得到的隐藏层计算二元损失,解码隐藏层向量,将解码损失和二元损失加权相加反向传播,并将向量转化为文本。本方法有效解决了模型跨语言事件抽取困难的问题,提升了知识提示的正面效果,做到了知识提示程度的可控管理,显著增强了生成式跨语言事件的抽取性能。
-
公开(公告)号:CN112686040B
公开(公告)日:2022-08-23
申请号:CN202011626720.0
申请日:2020-12-31
Applicant: 北京理工大学 , 北京理工大学东南信息技术研究院
IPC: G06F40/289 , G06N3/04
Abstract: 本发明公开了一种基于图循环神经网络的事件事实性检测方法,属于信息抽取技术和计算机自然语言处理技术领域。本发明通过训练一个图循环神经网络事件事实性检测器,有效利用依存树中的信息,将其中包含丰富信息的边类别标签和方向信息与神经网络进行结合,同时,利用参数共享的性质缓解过拟合的风险。本方法,克服了传统方法没有将依存树中包含丰富信息的边类别标签和方向信息结合进神经网络中的缺陷,提高信息利用率。通过利用参数共享机制,规避了堆叠图网络层数来建模依存树中的多跳路径时因参数线性增长而导致的容易过拟合的风险。
-
公开(公告)号:CN112686040A
公开(公告)日:2021-04-20
申请号:CN202011626720.0
申请日:2020-12-31
Applicant: 北京理工大学 , 北京理工大学东南信息技术研究院
IPC: G06F40/289 , G06N3/04
Abstract: 本发明公开了一种基于图循环神经网络的事件事实性检测方法,属于信息抽取技术和计算机自然语言处理技术领域。本发明通过训练一个图循环神经网络事件事实性检测器,有效利用依存树中的信息,将其中包含丰富信息的边类别标签和方向信息与神经网络进行结合,同时,利用参数共享的性质缓解过拟合的风险。本方法,克服了传统方法没有将依存树中包含丰富信息的边类别标签和方向信息结合进神经网络中的缺陷,提高信息利用率。通过利用参数共享机制,规避了堆叠图网络层数来建模依存树中的多跳路径时因参数线性增长而导致的容易过拟合的风险。
-
-
-
-
-
-
-
-
-