一种基于集成学习的神经网络动态早退方法

    公开(公告)号:CN115222063A

    公开(公告)日:2022-10-21

    申请号:CN202110430015.1

    申请日:2021-04-21

    Applicant: 复旦大学

    Inventor: 邱锡鹏 孙天祥

    Abstract: 本发明提供一种基于集成学习的神经网络动态早退方法,包括:步骤1,采用相关性损失和多样性损失之和训练多层神经网络及其内部分类器,得到训练好的神经网络和训练好的内部分类器;步骤2,将待处理的数据输入训练好的神经网络,在训练好的神经网络的第一层,计算第一个训练好的内部分类器对数据分类的中间预测结果,得到各个类别的投票数;步骤3,将中间预测结果中的最大票数与预先设定的阈值进行比较,当最大票数大于阈值时,则将最大票数的类别作为最终预测结果,同时从训练好的神经网络退出,反之,则进入训练好的下一层神经网络,通过下一个内部分类器进行投票,直至新的中间预测结果的最大值大于阈值,则退出。

    一种基于序列生成的细粒度情感分析方法

    公开(公告)号:CN113221551B

    公开(公告)日:2022-07-29

    申请号:CN202110592818.7

    申请日:2021-05-28

    Applicant: 复旦大学

    Inventor: 邱锡鹏 代俊奇

    Abstract: 本发明提供一种基于序列生成的细粒度情感分析方法,包括:步骤1,将主观性商品评价或服务评价作为输入序列输入编码器进行编码,得到隐变量He;步骤2,采用索引词汇转换器模块将过去时刻的已输出索引序列Y<t转换为已输出文本序列步骤3,将隐变量He以及已输出文本序列输入解码器进行解码,得到当前时刻t的输出分布Pt;步骤4,将输出分布Pt输入索引生成器,生成当前时刻输出索引,并采用束搜索方法自回归生成输出序列。本发明将整体细粒度情感分析任务统一定义为索引序列生成任务。基于统一的任务类型,利用序列到序列的生成式框架,使得各种差异导致的问题在统一的框架内得到解决,为完成整体细粒度情感分析提供了全新的系统性解决方法。

    一种基于序列到序列架构的命名实体识别方法

    公开(公告)号:CN113221576A

    公开(公告)日:2021-08-06

    申请号:CN202110608812.4

    申请日:2021-06-01

    Applicant: 复旦大学

    Inventor: 邱锡鹏 颜航

    Abstract: 本发明涉及识别技术领域,提供了一种基于序列到序列架构的命名实体识别方法,由于构件的命名实体识别模型包括编码器和解码器,解码器的输出为命名实体位置和文本标签,通过预设样本对命名实体识别模型进行训练后,将待测文本输入命名实体识别模型,得到识别结果序列,对命名实体识别模型输出的识别结果序列进行解码,得到多个命名实体以及每个命名实体所对应的文本标签,因此,本发明在不同场景的命名实体识别中不再需要针对不同命名实体设计不同的标签,能够使用完全一样的模型来解决不同场景的命名实体识别任务,设计简单,应用场景广泛。

    一种面向广电运营商的三户模型

    公开(公告)号:CN102750646A

    公开(公告)日:2012-10-24

    申请号:CN201210183781.3

    申请日:2012-06-06

    Abstract: 本发明属于电信技术领域,具体涉及一种适合广电运营商的三户模型。该模型中有四个实体:客户组、客户、用户和账户,其中“客户”和“客户组”之间的关系明确了“人和地址”的关系,每个家庭成员相当于“客户组”下的“客户”,两者的关系符合一对多的关系。该模型强调关联到人,利用该模型,业务支撑系统可以做到细致的客户划分,便于灵活扩展个性化功能,更符合广电业务的特点。

    使用人工智能反馈的句子表示对比学习方法

    公开(公告)号:CN119149662A

    公开(公告)日:2024-12-17

    申请号:CN202310709647.0

    申请日:2023-06-15

    Applicant: 复旦大学

    Abstract: 本发明提供了一种使用人工智能反馈的句子表示对比学习方法,用于根据待识别句子得到对应的句子表示,具有这样的特征,包括以下步骤:步骤S1,根据大语言模型LLMs和现有数据构建训练集;步骤S2,根据训练集训练现有的语言模型,并根据损失函数更新语言模型,将训练完成的语言模型作为句子编码器;步骤S3,将待识别句子输入句子编码器,得到对应的句子表示。总之,本方法能够生成高质量的句子表示。

    基于对比学习的文本摘要框架构建方法

    公开(公告)号:CN116680395A

    公开(公告)日:2023-09-01

    申请号:CN202210163630.5

    申请日:2022-02-22

    Applicant: 复旦大学

    Inventor: 邱锡鹏 安晨鑫

    Abstract: 本发明提供一种基于对比学习的文本摘要框架构建方法,由于评价指标优化是一个不可直接优化的目标,因此,本发明的方法使用基于正负样本的对比学习来让文本摘要模型学习区分高质量与低质量的样本,从而使得生成的文本摘要与原文相符且通顺流畅,本发明的方法适用于抽取式以及生成式的自动文本摘要,该方法是端到端的,几乎不影响最终的解码速度,因此,构建出的是高效且统一的文本摘要框架。

    一种基于集成重建机制的对抗样本攻击的防御方法

    公开(公告)号:CN115409078A

    公开(公告)日:2022-11-29

    申请号:CN202110591329.X

    申请日:2021-05-28

    Applicant: 复旦大学

    Inventor: 邱锡鹏 李林阳

    Abstract: 本发明提供了一种基于集成重建机制的对抗样本攻击的防御方法,用于语言模型防御对抗样本攻击,包括以下步骤:步骤1,在语言模型的训练过程中,同时加入三个预定的损失函数来保持语言模型对于带噪声样本的重建能力;步骤2,对语言模型的输入样本注入不同的噪声,重建得到多个不同的重建样本,并对重建样本进行集成推理完成一次样本重建,并得到一个取平均值的模型置信度的打分,通过多次样本重建来防御对抗样本攻击,其中,损失函数包括模型下游任务的微调损失函数、预训练采用的MASK掩码预测损失以及基于梯度回传的重建原有字词的损失。

    一种基于神经网络早退机制的序列标注加速方法

    公开(公告)号:CN115269822A

    公开(公告)日:2022-11-01

    申请号:CN202110480011.4

    申请日:2021-04-30

    Applicant: 复旦大学

    Inventor: 邱锡鹏 李孝男

    Abstract: 本发明提供了一种基于神经网络早退机制的序列标注加速方法,用于判断预训练语言模型在进行序列标注任务时是否进行早退,包括以下步骤:对于L层的预训练语言模型,在每一层之后都添加一个内部分类器,在进行序列标注任务时,通过句子级别的序列标注早退机制或词级别的序列标注早退机制来判断预训练语言模型是否进行早退。本发明的一种基于神经网络早退机制的序列标注加速方法能够应用于在自然语言处理中较为基础的序列标注任务,在加速3‑4倍的同时只给模型带来微小的性能损失。

Patent Agency Ranking