-
公开(公告)号:CN118823779A
公开(公告)日:2024-10-22
申请号:CN202410726500.7
申请日:2024-06-06
Applicant: 北京理工大学
IPC: G06V20/70 , G06V10/74 , G06V10/82 , G06F16/332 , G06F16/51 , G06F16/583 , G06F40/58 , G06N3/0455 , G06N3/0895 , G06N3/092
Abstract: 本发明涉及一种基于大语言模型与检索对比的小语种图片描述生成方法,属于图片和自然语言处理技术领域。首先构建大语种到小语种平行语料数据集,以及大语种和小语种图片描述对数据集。然后进行多语理解大语言模型训练。之后进行图像文本对齐,向量数据库检索生成提示。最后根据训练好的模型和生成的提示词生成描述。本方法直接使用大语言模型生成,无需经过翻译步骤,从而提高了生成效率。图片描述生成直接针对小语种展开,通过引入检索对比技术,进一步提升了生成质量和准确率。本方法使得小语种图片描述生成更为可行,为相关领域的研究和应用提供了有力的技术支持。
-
公开(公告)号:CN117407703A
公开(公告)日:2024-01-16
申请号:CN202310673127.9
申请日:2023-06-07
Applicant: 北京理工大学
IPC: G06F18/214 , G06N3/045 , G06N3/048 , G06N3/082 , G06F18/22 , G06F40/30 , G06F40/216
Abstract: 本发明涉及一种基于机器阅读理解的冲突因素编码预测方法,属于自然语言处理技术领域。本方法根据冲突文本发布时间判断当前冲突发展阶段,确定可选因素列表;通过BERT微调的模型对冲突文本和可选冲突因素进行向量化表示;计算冲突文本和冲突因素的语义相似度,筛选与冲突文本最相关的冲突因素和冲突因素最相关的冲突文本句子;利用“冲突文本‑相关冲突因素”集合,生成原始冲突因素标注数据集;利用基于BERT微调的机器阅读理解模型,将处理好的冲突因素标注数据输入模型,获得冲突文本的相关冲突因素标注预测。本发明有效解决了基于海量新闻文本的冲突因素标注预测问题,提高了冲突量化分析效率。降低了冲突量化模型的使用者门槛。
-
公开(公告)号:CN115358234A
公开(公告)日:2022-11-18
申请号:CN202210828795.X
申请日:2022-07-14
Applicant: 北京理工大学
IPC: G06F40/295 , G06F40/30 , G06N3/04 , G06N3/08
Abstract: 本发明公开了基于图卷积网络与关系证据互指导的篇章关系抽取方法,属于计算机自然语言处理技术领域。本发明针对文档级别的文本,构造包含实体提及和实体关系两种节点的文档图,利用图卷积神经网络学习关系表征。同时,利用关系表征指导证据集抽取网络抽取对应的证据集,最后将证据集表征融入关系表征进行关系判别。本发明通过关系抽取和证据集抽取两通道任务的联合训练。关系抽取为证据集抽取提供特定关系信息,证据集抽取为关系抽取提供依据信息,从而提高篇章关系抽取的效果。同时,在文档图中创新性的增加关系节点促进了实体之间的消息传递,有利于模型充分学习语义表征。
-
公开(公告)号:CN116502636A
公开(公告)日:2023-07-28
申请号:CN202310241423.1
申请日:2023-03-14
Applicant: 北京理工大学
IPC: G06F40/284 , G06F40/166 , G06N3/0442 , G06N3/0455 , G06N3/096 , G06N5/02
Abstract: 本发明公开了一种基于知识驱动的跨语言简讯生成方法,属于自然语言处理技术领域。首先通过Bi‑RNN网络模拟单词之间的相互作用,采用原型文档和简讯之间的双向注意机制分析相互依赖关系,最终根据隐状态的加权求和得到“简讯模式”。然后基于多任务学习来共享解码器的参数,通过共享整个解码器来执行翻译和简讯生成任务。最后将获取的知识融合在跨语言简讯生成模型的解码器中,让其参与到最终简讯生成的过程,使用预训练‑微调范式,进一步解决低资源的问题。本方法能够生成更专业、更符合要求的科技简讯,解决了低资源的问题,即使在训练数据资源较少的情况下,也能跨语言生成较高质量的科技简讯。
-
公开(公告)号:CN118821796A
公开(公告)日:2024-10-22
申请号:CN202410726533.1
申请日:2024-06-06
Applicant: 北京理工大学
IPC: G06F40/58 , G06F16/34 , G06F40/186 , G06F40/216 , G06F40/284 , G06N3/0455 , G06N3/084
Abstract: 本发明涉及一种基于大模型多阶段数据增强的跨语言简讯生成方法,属于计算机自然语言处理技术领域。本方法通过指令微调技术,利用英文原文和中文简讯之间的对应关系,生成适合大模型学习的指令微调语料。本发明将大模型应用于跨语言科技简讯生成领域,以及结合多阶段数据增强框架,提高了模型在特定任务上的表现,同时保持了模型的泛化能力,解决了传统跨语言文本摘要任务样本不足等问题,避免了传统跨语言任务流水线方法中的误差传播,能够更快地进行推理。本方法通过串行结构学习多个相关任务,并通过辅助任务数据进行增强,从共享的知识中受益,提高了性能,增强泛化能力,有效应对数据稀缺性。
-
公开(公告)号:CN116628301A
公开(公告)日:2023-08-22
申请号:CN202310420021.8
申请日:2023-04-19
Applicant: 北京理工大学
IPC: G06F16/951 , G06F16/958 , G06F16/955 , G06F16/36
Abstract: 本发明涉及一种基于知识驱动的网页表格抽取与结构化处理方法,属于计算机科学中的信息处理技术领域。该方法包括:解析Web网页内容数据,判断是否存在表格;若存在表格,提取所有表格的内容并存储;获取表格后,对每一行数据和每一列数据进行解析,判断是实体还是属性;对表格项内容进行匹配,得到每一个表项对应的标签;根据表项标签,获取行列标签;计算行列置信度,判断表头实体属性;以及生成包括实体、属性、以及属性值的结构化三元组。本发明通过融合规则与自然语言处理技术,基于知识库对网页表格数据进行抽取解析,使得结构化后的信息更加清晰、准确、和实用,为各种装备性能参数的构建提供技术支持,具有很大的实用价值。
-
-
-
-
-