一种基于细粒度匹配的零样本关系抽取方法

    公开(公告)号:CN117910475A

    公开(公告)日:2024-04-19

    申请号:CN202211234538.X

    申请日:2022-10-10

    Abstract: 本发明提供一种基于细粒度匹配的零样本关系抽取方法,首先人工设计关系描述,标注对应的头尾实体类别,针对关系描述中多实体类别的情况,提出了基于相关词扩充融合模版句子生成方法,丰富关系描述中的实体类别信息,且拉近编码器与孤立实体类别间的间隔,获得了更好的实体类别表示,提升匹配精度。其次,通过带有梯度反转的分类器和基于自注意力机制的特征提取方法,利用投影蒸馏的去除原始语句中关系无关的冗余信息,获得纯净的关系语义表示,进一步提升匹配精度。最后基于双塔结构的思路,利用cos相似度作为度量指标,对关系描述和原始语句进行细粒度结构化匹配,使实体与实体进行匹配,句子与句子匹配,避免双塔结构预编码特性带来的精度损失。

    基于人工引导的开放信息抽取聚类方法

    公开(公告)号:CN117909766A

    公开(公告)日:2024-04-19

    申请号:CN202211235248.7

    申请日:2022-10-10

    Abstract: 本发明提供一种基于人工引导的开放信息抽取聚类方法,首先对于预定义关系的标注数据,在聚类空间中拉近相同关系的表示;对于未标注数据,设计了一种针对聚类的标签策略,选择若干点进行标注。然后在聚类空间中将所有点分配给最近的标注点并得到伪标签,基于该伪标签和未标注样本对BERT模型进行关系抽取训练。本发明的基于人工引导的开放信息抽取聚类方法将原来的OpenRE两阶段过程相统一,从而提高模型性能。同时可以有效减轻对未标注样本估计偏差造成较坏影响,可以广泛应用于各种分布的未标注数据。此外,本发明提出的OpenRE两阶段统一框架在该领域内并未采用过,为后续信息抽取聚类具有启发性。

    场景文本识别中基于对抗学习的序列领域适应方法

    公开(公告)号:CN111126386A

    公开(公告)日:2020-05-08

    申请号:CN201911321106.0

    申请日:2019-12-20

    Applicant: 复旦大学

    Abstract: 本发明属于人工智能技术领域,具体为一种基于属于机器视觉场景文本识别任务上的领域适应方法。本发明方法包括:构建CNN-LSTM网络、注意力网络;将两者组合成场景文本识别网络;将自源域与目标域的场景图像输入场景文本识别网络,由CNN-LSTM从输入的场景图像中提取图像特征,由注意力网络对图像特征进行再编码,提取出每一个字符的对应特征,实现将图像中的文本信息切分成字符级别信息;最后运用基于对抗学习的迁移学习技术,构建域分类网络,与场景文本识别网络共同构成对抗生成网络,最终使模型能够有效适应目标域。本发明充分利用少量目标域标定样本,解决了在实际场景文本识别任务中经常出现的样本稀缺问题,提高识别效果。

    基于多维关联时序分类神经网络的端到端多序列文本识别方法

    公开(公告)号:CN111144469A

    公开(公告)日:2020-05-12

    申请号:CN201911321107.5

    申请日:2019-12-20

    Applicant: 复旦大学

    Abstract: 本发明属于人工智能技术领域,具体为一种基于多维关联时序分类神经网络的端到端多序列文本识别方法。本发明设计了编码器、多维关联时序分类神经网络和解码器;对含有多个文本序列的图片进行编码解码,编码器将原始的图片映射到特征空间,多维关联时序分类神经网在特征空间上捕获图片的空间时序信息,并利用该信息对各个位置进行文本识别,解码器则根据分类得到的最大概率类别图进行解码生成多序列文本。本发明方法框架简单、使用方便、可扩展性强、可解释性强。本发明设计了多个数据集和实用场景并在其上进行了实验,能够有效的识别图片中的多文本序列。本发明能够为多序列文本识别等底层的计算机视觉任务,提供基础框架和算法的支持。

    一种基于跨文档语义增强的实体识别方法

    公开(公告)号:CN117910474A

    公开(公告)日:2024-04-19

    申请号:CN202211234524.8

    申请日:2022-10-10

    Abstract: 本发明提供一种基于跨文档语义增强的实体识别方法,首先将文档的布局信息输入掩码生成层,基于可学习的注意力掩码机制获取对应的注意力掩码;其次将原始文本、图像和布局信息输入到特征提取网络,综合注意力掩码,得到每个词的词特征表示;然后将每个词的词特征表示存储至倒排索引中,在倒排索引中查询当前词的相关项,与当前词的词特征表示进行融合,得到该当前词的最终词特征表示;最后通过将每个词的最终词特征表示输入至分类器,输出在各个实体类别上的概率分布,从而判断词的实体类别。本发明的文档实体识别方法能够有效过滤当前文档中无关冗余信息,增强对视觉文档的理解能力,有助于模型进行实体识别,从而提高模型性能。

    场景文本识别中基于对抗学习的序列领域适应方法

    公开(公告)号:CN111126386B

    公开(公告)日:2023-06-30

    申请号:CN201911321106.0

    申请日:2019-12-20

    Applicant: 复旦大学

    Abstract: 本发明属于人工智能技术领域,具体为一种基于属于机器视觉场景文本识别任务上的领域适应方法。本发明方法包括:构建CNN‑LSTM网络、注意力网络;将两者组合成场景文本识别网络;将自源域与目标域的场景图像输入场景文本识别网络,由CNN‑LSTM从输入的场景图像中提取图像特征,由注意力网络对图像特征进行再编码,提取出每一个字符的对应特征,实现将图像中的文本信息切分成字符级别信息;最后运用基于对抗学习的迁移学习技术,构建域分类网络,与场景文本识别网络共同构成对抗生成网络,最终使模型能够有效适应目标域。本发明充分利用少量目标域标定样本,解决了在实际场景文本识别任务中经常出现的样本稀缺问题,提高识别效果。

    基于多维关联时序分类神经网络的端到端多序列文本识别方法

    公开(公告)号:CN111144469B

    公开(公告)日:2023-05-02

    申请号:CN201911321107.5

    申请日:2019-12-20

    Applicant: 复旦大学

    Abstract: 本发明属于人工智能技术领域,具体为一种基于多维关联时序分类神经网络的端到端多序列文本识别方法。本发明设计了编码器、多维关联时序分类神经网络和解码器;对含有多个文本序列的图片进行编码解码,编码器将原始的图片映射到特征空间,多维关联时序分类神经网在特征空间上捕获图片的空间时序信息,并利用该信息对各个位置进行文本识别,解码器则根据分类得到的最大概率类别图进行解码生成多序列文本。本发明方法框架简单、使用方便、可扩展性强、可解释性强。本发明设计了多个数据集和实用场景并在其上进行了实验,能够有效的识别图片中的多文本序列。本发明能够为多序列文本识别等底层的计算机视觉任务,提供基础框架和算法的支持。

Patent Agency Ranking