一种基于社区原型的图对比学习方法

    公开(公告)号:CN119006871A

    公开(公告)日:2024-11-22

    申请号:CN202310581071.4

    申请日:2023-05-22

    Applicant: 南京大学

    Abstract: 本发明是一种基于社区原型的图对比学习方法。相比于现有的图对比学习方法,本发明更加重视社区信息,将社区检测、社区原型和节点嵌入相互关联,以提高图表示学习的质量。本发明通过结合图注意力网络(GAT)和传统的社区检测算法(标签传播算法,LPA),来学习带有社区结构信息的节点嵌入。经过大量的实验,结果表明它的性能优于现有方法。该方法可应用于无标签数据的图表示学习任务,缓解监督学习的重度依赖标签、泛化性能差、鲁棒性弱等局限性,具有广泛的应用前景。

    一种基于预训练模型和数据增强技术的“中-英”条件时态机器翻译方法

    公开(公告)号:CN119005215A

    公开(公告)日:2024-11-22

    申请号:CN202310580943.5

    申请日:2023-05-22

    Applicant: 南京大学

    Abstract: 本发明提出了一种基于预训练模型和数据增强技术的“中‑英”条件时态机器翻译方法,用于增强“中‑英”机器翻译时条件时态的翻译效果,进而提高翻译系统总体的翻译表达能力,提高用户满意度。本发明主要分为四个主要环节:利用自注意力机制对英文的上下文时态信息进行编码、利用预训练模型Chinese‑BERT构建一个条件时态分类器、设计了一个条件时态数据增强算法以及基于篇章级机器翻译模型HAN‑NMT构建的条件时态翻译器和非条件时态翻译器。这一方法为“中‑英”机器翻译中条件时态翻译效果问题提供了一个最前沿的基于预训练模型和数据增强算法的优化方案,同时也为“中‑英”翻译和其他语种翻译中时态的优化问题提供了可以借鉴的思路。

    一种基于持续学习和提示模板的通用命名实体识别方法

    公开(公告)号:CN119005187A

    公开(公告)日:2024-11-22

    申请号:CN202310581034.3

    申请日:2023-05-22

    Applicant: 南京大学

    Abstract: 本发明的技术方案一种基于持续学习和提示模板的通用命名实体识别方法。本发明的特点在于:1.本方法只需要少量的过去实体的注释样本;2.本发明不需要扩展神经网络层,也不需要每次都复制新的编码器层来构建新的模型。本方法总是在同一个模型上进行训练,这样可以避免存储空间的浪费,也不需要每次动态调整和重新训练模型的输出层;3.本发明创新的结合了基于代表性困难度的样本重放方法和基于EWC的正则化方法,大大减轻了由于灾难性遗忘问题导致持续学习中NER模型表现迅速下降的问题。本发明可以指导开发人员更好的完成类增量设置下的命名实体识别任务,快速准确的定位非结构化文本中的命名实体并将其分类为预先定义的类型。

Patent Agency Ranking