-
公开(公告)号:CN117116408A
公开(公告)日:2023-11-24
申请号:CN202311384445.X
申请日:2023-10-25
Applicant: 湖南科技大学
IPC: G16H10/60 , G06F16/33 , G06F40/211 , G06N3/096 , G06N3/0464 , G06N3/0442
Abstract: 本发明公开了一种面向电子病历解析的关系抽取方法,包括如下步骤:步骤S1,训练教师模型:分别将句子袋级数据和句子级数据输入教师模型进行训练,计算教师知识,采用反向传播方法训练教师模型,更新教师模型参数,完成教师模型的训练;步骤S2,训练学生模型:将句子级数据输入学生模型进行训练,采用反向传播方法和教师模型监督两种结合训练学生模型,更新学生模型参数,完成学生模型的训练;步骤S3,进行关系抽取:基于教师模型和学生模型构建多级知识蒸馏关系抽取模型,实现关系抽取。优点是,本发明采用句子级数据和句子袋级数据分别进行句级训练和袋级训练,并构建了多层级知识蒸馏监督获取教师知识,保证了教师知识的准确性和精确性。
-
公开(公告)号:CN117116408B
公开(公告)日:2024-01-26
申请号:CN202311384445.X
申请日:2023-10-25
Applicant: 湖南科技大学
IPC: G16H10/60 , G06F16/33 , G06F40/211 , G06N3/096 , G06N3/0464 , G06N3/0442
Abstract: 本发明公开了一种面向电子病历解析的关系抽取方法,包括如下步骤:步骤S1,训练教师模型:分别将句子袋级数据和句子级数据输入教师模型进行训练,计算教师知识,采用反向传播方法训练教师模型,更新教师模型参数,完成教师模型的训练;步骤S2,训练学生模型:将句子级数据输入学生模型进行训练,采用反向传播方法和教师模型监督两种结合训练学生模型,更新学生模型参数,完成学生模型的训练;步骤S3,进行关系抽取:基于教师模型和学生模型构建多级知识蒸馏关系抽取模型,实现关系抽取。优点是,本发明采用句子级数据和句子袋级数据分别进行句级训练和袋级训练,并构建了多层级知识蒸馏监督获取教师知识,保证了教师知识的准确性和精确性。(56)对比文件Z.Y. ZHANG 等.Distilling Knowledgefrom Well-formed Soft Labels for NeuralRelation Extraction《.The Thirty-ForthAAAI Conference on ArtificialIntelligence》.2020,第9620-9627页.Z.X. YE, Z.H, LING.DistantSupervision Relation Extraction withIntra-Bag and Inter-Bag Attentions.《Proceedings of NAACL-HLT 2019》.2019,第2810-2819页.
-