-
公开(公告)号:CN117149916A
公开(公告)日:2023-12-01
申请号:CN202311080246.X
申请日:2023-08-25
Applicant: 北京航空航天大学
IPC: G06F16/28 , G06F16/26 , G06F16/9536 , G06N3/0464 , G06N3/08
Abstract: 本发明实现了一种社交平台多模态统一信息抽取方法。输入社交平台文本信息及图像信息,经过多模态特征融合模块以及多模态信息智能抽取模块实现文本和图像实体抽取和关系抽取;智能决策的统一信息抽取模块通过实体抽取识别数据中的存在的实体并进行分类,采用基于强化学习的智能决策确定抽取任务的执行顺序,通过Q‑learning算法进行强化学习进行多模态信息抽取和智能选择任务找到最优任务执行顺序。本发明充分利用了社交媒体上信息模态的多样性,提出将不同模态的信息共同构建一张异构图,分别使用图结构学习和因果干预的方式优化图结构和图神经网络,从而获取蕴含更丰富语义的文本表征和图像表征。
-
公开(公告)号:CN111444286B
公开(公告)日:2022-06-21
申请号:CN202010154942.0
申请日:2020-03-06
IPC: G06F16/28 , G06F16/2458 , G06F16/29 , G08G1/01
Abstract: 本专利公开了一种基于轨迹数据的远距离交通节点关联性挖掘方法,所述方法包括:根据原始轨迹数据获取乘客每一次出行的起点和终点;获取交通节点中心的地理位置信息,并判定交通节点范围;轨迹数据匹配;计算每一次出行所有经过的交通节点序列;所述序列包括车辆在该次出行中经过每个交通节点的编号以及经过每个交通节点的时间;步骤五、建立关联度计算模型;步骤六、按照最短路径方法或依据实际出行距离,计算任意两个节点间的实际出行距离。通过上述方法能够有效的计算出轨迹数据的远距离交通节点关联性,有结果准确,计算速度快的特点。
-
公开(公告)号:CN113312916B
公开(公告)日:2022-05-27
申请号:CN202110589745.6
申请日:2021-05-28
Applicant: 北京航空航天大学
IPC: G06F40/295 , G06F40/30 , G06F16/35
Abstract: 本发明通过神经网络领域的方法,实现了基于触发词语态学习的金融文本事件抽取方法。方法包括三个步骤:金融领域文本预训练、事件分类和基于触发词语态学习的金融文本事件要素抽取;金融领域文本预训练步骤的实现结合金融知识图谱构建BERT预训练模型,以输入词序列作为模型输入,结合神经网络方法,在已有的金融文本训练集和金融知识图谱数据上进行再训练,得到适合下游事件分类和事件抽取的词表征和实体表征,而后通过词表征做多标签多分类任务得到事件检测结果,最后每一个输入词对应的词表征作为多标签分类任务的表征向量进行计算得到输出结果,从而形成一个能够自动精准抽取金融文本事件的方法。
-
公开(公告)号:CN111444286A
公开(公告)日:2020-07-24
申请号:CN202010154942.0
申请日:2020-03-06
IPC: G06F16/28 , G06F16/2458 , G06F16/29 , G08G1/01
Abstract: 本专利公开了一种基于轨迹数据的远距离交通节点关联性挖掘方法,所述方法包括:根据原始轨迹数据获取乘客每一次出行的起点和终点;获取交通节点中心的地理位置信息,并判定交通节点范围;轨迹数据匹配;计算每一次出行所有经过的交通节点序列;所述序列包括车辆在该次出行中经过每个交通节点的编号以及经过每个交通节点的时间;步骤五、建立关联度计算模型;步骤六、按照最短路径方法或依据实际出行距离,计算任意两个节点间的实际出行距离。通过上述方法能够有效的计算出轨迹数据的远距离交通节点关联性,有结果准确,计算速度快的特点。
-
公开(公告)号:CN111177366B
公开(公告)日:2023-06-27
申请号:CN201911396046.9
申请日:2019-12-30
Applicant: 北京航空航天大学
Abstract: 本发明通过深度学习的方法,构建训练数据与数据预处理;基于BERT模型预训练语言模型进行文档与查询内容编码;基于BERT模型的查询内容进行词编码;建立基于句子级别的层级结构(Hierarchical结构)模型,实现查询内容与文档关系语义建模;模型训练后封装,通过接口输出抽取式摘要五个步骤,使BERT模型学习词级别的特征向量表示,抽取代表文档的句子和查询的句子,并将上述特征导入Transformer模型进行句子级别的语义关系特征学习,结合查询模型的思想,学习查询内容与文档的关系,通过分类函数判定最终得到文本的摘要。
-
公开(公告)号:CN111191413B
公开(公告)日:2021-11-12
申请号:CN201911393738.8
申请日:2019-12-30
Applicant: 北京航空航天大学
IPC: G06F40/117 , G06F40/211 , G06F40/253 , G06F40/289 , G06F40/295 , G06F16/33
Abstract: 本发明通过深度学习技术,针对新闻文本的要素标记问题设计了一种基于图排序模型的事件核心内容自动标记方法及应用该方法的设备和系统,该方法包括基于句法依存树的事件关键要素抽取及核心词标记、核心事件构建、事件核心句定位并输出标记文本三个基本步骤,对文本的核心句子和核心词进行标记,从而实现新闻文本标记过程中节约人工成本以及时间成本,节省资源的技术效果。
-
公开(公告)号:CN113312470A
公开(公告)日:2021-08-27
申请号:CN202110589943.2
申请日:2021-05-28
Applicant: 北京航空航天大学
IPC: G06F16/335 , G06F16/35 , G06F40/14 , G06F40/194 , G06F40/211 , G06F40/258 , G06F40/295 , G06F40/30 , G06F21/62 , G16H50/70 , G06N3/04 , G06N3/08
Abstract: 本发明通过人工智能领域的方法,实现了一种基于匿名化隐私保护技术的医疗事件抽取方法。由事件检测模型和事件抽取模型构成;事件检测模型输入已发布新闻的概要信息或新闻正文的第一段落作为与标题进行信息交互的摘要文本,使用双向注意力流获取标题中的单词与摘要中文本的关联信息,之后通过单词嵌入层、双向注意力机制层、模型层、输出层的模型结构,采用Bi‑LSTM模型方法得到最终的分类标签;事件抽取模型通过抽取时间、地点、人物、组织机构、v‑n词对五项参数的方式结构化表示从事件中提取的有效信息。最终实现了能够克服事件句中可能存在的实体语义信息不明的情况,以及利用语义依存树学习文本结构信息来弥补文本中实体含义部分缺失的问题的方法。
-
公开(公告)号:CN111445695A
公开(公告)日:2020-07-24
申请号:CN202010154941.6
申请日:2020-03-06
Abstract: 本专利公开了一种智能车路系统的运行状况监测方法,所述方法包括:从交叉口、路段、路网等维度建立指标矩阵,得出运行状况指标集。针对指标参数多且量纲不同的特性,采用阈值法进行数值的规范化处理。运用熵权法判断各指标的离散程度,计算指标所占的权重。运用加权总均方根偏差计算法,来衡量指标值之间的计算偏差,反映出测评的精确度。利用熵权-加权总均方根偏差计算对指标集进行组合赋权。将指标集导入深度强化学习神经网络,利用门控结构进行多层卷积,提取特征值,运用强化学习网络,通过训练最大化目标函数得到最优指标集,进行IVIS运行状况的综合分析。通过上述方案,合理规避了指标绝对集中的可能性,大大提高了指标集的精确性。
-
公开(公告)号:CN111177366A
公开(公告)日:2020-05-19
申请号:CN201911396046.9
申请日:2019-12-30
Applicant: 北京航空航天大学
Abstract: 本发明通过深度学习的方法,构建训练数据与数据预处理;基于BERT模型预训练语言模型进行文档与查询内容编码;基于BERT模型的查询内容进行词编码;建立基于句子级别的层级结构(Hierarchical结构)模型,实现查询内容与文档关系语义建模;模型训练后封装,通过接口输出抽取式摘要五个步骤,使BERT模型学习词级别的特征向量表示,抽取代表文档的句子和查询的句子,并将上述特征导入Transformer模型进行句子级别的语义关系特征学习,结合查询模型的思想,学习查询内容与文档的关系,通过分类函数判定最终得到文本的摘要。
-
公开(公告)号:CN115374603A
公开(公告)日:2022-11-22
申请号:CN202210878082.4
申请日:2022-07-25
Applicant: 北京航空航天大学 , 中国兵器工业第五九研究所
IPC: G06F30/20 , G06F119/02
Abstract: 本发明提供一种多部件系统综合加速因子置信下限的数值评估方法,其实施步骤如下:一:单元加速因子及其置信下限评估;二:电子产品加速因子及其置信下限评估;三:非电子产品加速因子及其置信下限评估;四:系统加速因子及其置信下限评估;本发明考虑试验数据的随机性,给出了带有置信度的系统加速因子评估结果,可为系统贮存寿命验证试验设计提供依据;能同时对包含电子产品与非电子产品的装备系统加速因子进行评估,扩展了传统竞争失效模型的应用范围,计算简单,可执行性强,具有广阔的推广应用价值。
-
-
-
-
-
-
-
-
-