-
公开(公告)号:CN112380832B
公开(公告)日:2024-01-30
申请号:CN202011272435.3
申请日:2020-11-13
Applicant: 苏州大学
IPC: G06F40/194
Abstract: 本发明提供了一种文本匹配方法、装置、电子设备及存储介质,包括:获取第一文本和第二文本,第一文本和第二文本具有相同的文本结构,提取与第一文本中多个版块一一对应的多个第一单视角匹配特征;提取与第二文本中多个版块一一对应的多个第二单视角匹配特征,将属于相同版块的第一单视角匹配特征和第二单视角匹配特征进行拼接,得到多个拼接后的单视角匹配特征;融合多个拼接后的单视角匹配特征得到第一文本和第二文本的多视角匹配特征;利用多视角匹配特征计算第一文本与第二文本的多视角匹配概率;通过多视角匹配概率确定第一文本与第二文本是否匹配。由于多视角匹配特征综合考虑到了各个单视角特征的信息,能够大幅提升文本匹配的准确率。
-
公开(公告)号:CN112949622B
公开(公告)日:2023-06-27
申请号:CN202110376917.1
申请日:2021-04-08
Applicant: 苏州大学
IPC: G06V30/14 , G06V30/19 , G06N3/0464 , G06N3/08
Abstract: 本申请涉及一种融合文本与图像的双模态性格分类方法及装置,属于人工智能技术领域,该方法包括:将文本数据和图像数据输入预先训练的性格分类网络,得到性格分类结果;性格分类网络包括特征提取网络、对比视觉注意力网络和对比感知解码网络;特征提取网络中的文本特征提取分支用于提取文本数据的词嵌入向量、图像特征提取分支用于提取图像数据的图像区域向量;对比视觉注意力网络中的基础视觉注意力分支用于提取与文本数据对齐的图像对象,并计算对齐的视觉表示、逆视觉注意力分支用于提取与文本数据不对齐的图像对象,并计算不对齐的视觉表示;对比感知解码网络用于进行性格类别的预测;缓解了分类性能不佳和无法捕捉认知差异信息的问题。
-
公开(公告)号:CN115034213A
公开(公告)日:2022-09-09
申请号:CN202210976821.3
申请日:2022-08-15
Applicant: 苏州大学
IPC: G06F40/284 , G06F40/274 , G06N20/20
Abstract: 本发明公开了一种基于联合学习的前后缀否定词识别方法,包括:将目标前后缀否定词输入训练好的主任务模型,并输出英文预测输出序列中英文标签描述词对应的英文预测输出向量;将目标前后缀否定词输入训练好的辅助任务模型,并输出中文预测输出序列中中文标签描述词对应的中文预测输出向量;将英文预测输出向量和中文预测输出向量输入训练好的联合学习模型,联合学习模型将英文预测输出向量和中文预测输出向量进行融合,得到融合向量序列,并向融合向量序列中添加不同向量之间的关联性,最后输出目标前后缀否定词的预测标签,预测标签包括否定词和非否定词。本发明的识别方法可以有效提升前后缀否定词的识别准确率。
-
公开(公告)号:CN114722805A
公开(公告)日:2022-07-08
申请号:CN202210653730.6
申请日:2022-06-10
Applicant: 苏州大学
IPC: G06F40/284 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明涉及一种基于大小导师知识蒸馏的少样本情感分类方法,包括收集大量情感分类任务上的未标注样本和有标注样本,使用有标注样本训练大导师模型和小导师模型;全部未标注样本经过小导师模型得到每个样本概率的不确定性,然后根据阈值筛选出样本概率高度不确定的样本再次经过大导师模型;结合大导师模型和小导师模型的概率输出形成软标签来蒸馏学生模型,使用蒸馏后的学生模型进行分类预测。本发明减少了访问大导师模型的频率,减少了训练学生模型过程中的蒸馏时间,减少资源消耗的同时提升了分类识别的正确率。
-
公开(公告)号:CN114626441A
公开(公告)日:2022-06-14
申请号:CN202210169569.5
申请日:2022-02-23
Applicant: 苏州大学
IPC: G06K9/62 , G06F40/205 , G06F40/284 , G06N3/04 , G06N3/08 , G06V10/40 , G06V10/82
Abstract: 本发明公开了一种基于视觉对比注意力的隐式多模态匹配方法,包括:S1、进行语料标注,在存在隐式对齐关系的图像区域和文本短语之间建立起一一映射关系;S2、根据建立的映射关系,对输入图片‑文本对进行特征提取,得到图片对象特征序列和文本短语特征序列;S3、对图片对象特征和文本短语特征进行特征交互,计算出对齐和未对齐的视觉表示;S4、计算真值标签的对齐和未对齐视觉表示的预测概率,将对齐和未对齐视觉表示的预测概率都作为对比感知损失函数共同组成目标函数。本发明通过识别出文本和图像中实体间的隐式的匹配关系,来帮助模型更好地理解多模态的语义信息,显著地提升了隐式语料集上的匹配性能。
-
公开(公告)号:CN113297383A
公开(公告)日:2021-08-24
申请号:CN202110695067.1
申请日:2021-06-22
Applicant: 苏州大学
Abstract: 本申请涉及一种基于知识蒸馏的语音情感分类方法,涉及语音智能处理技术,该方法包括:将样本文本数据预处理后输入向量提取网络提取文本词嵌入向量;将文本词嵌入向量输入预设的分类模型;将样本文本数据进行语音合成转换;将TTS语音数据输入语音特征提取模块;将语音时域及频域特征输入预设的分类模型,使用交叉熵损失函数对预设的分类模型进行语音情感分类预测训练;将文本情感分类软标签输入所述预设的分类模型并使用预设的知识蒸馏损失函数进行语音情感分类预测训练,使所述TTS语音数据的情感类别预测趋近于所述样本文本数据的情感分布,得到训练后的分类模型。训练后的分类模型可以对输入的语音数据进行语音情感分类。
-
公开(公告)号:CN113257280A
公开(公告)日:2021-08-13
申请号:CN202110628589.X
申请日:2021-06-07
Applicant: 苏州大学
Abstract: 本申请涉及一种基于wav2vec的语音情感识别方法,属于语音信号智能处理领域,该方法包括:获取样本语音信号并对样本语音信号进行预处理,获得处理后的样本语音信号;构建预设分类模型,所述预设分类模型由特征抽取网络和与特征抽取网络相连的预测网络构成;将所述处理后的样本语音信号输入所述预设分类模型并利用预设的损失函数进行训练,得到语音情感分类模型,所述语音情感分类模型用于对输入的待分类语音信号进行分类。本申请可以解决人工识别语音情感的效率问题,并解决了现有语音分类模型不适用于语音情感识别场景的问题,可以提高语音情感识别的精度。
-
公开(公告)号:CN112380832A
公开(公告)日:2021-02-19
申请号:CN202011272435.3
申请日:2020-11-13
Applicant: 苏州大学
IPC: G06F40/194
Abstract: 本发明提供了一种文本匹配方法、装置、电子设备及存储介质,包括:获取第一文本和第二文本,第一文本和第二文本具有相同的文本结构,提取与第一文本中多个版块一一对应的多个第一单视角匹配特征;提取与第二文本中多个版块一一对应的多个第二单视角匹配特征,将属于相同版块的第一单视角匹配特征和第二单视角匹配特征进行拼接,得到多个拼接后的单视角匹配特征;融合多个拼接后的单视角匹配特征得到第一文本和第二文本的多视角匹配特征;利用多视角匹配特征计算第一文本与第二文本的多视角匹配概率;通过多视角匹配概率确定第一文本与第二文本是否匹配。由于多视角匹配特征综合考虑到了各个单视角特征的信息,能够大幅提升文本匹配的准确率。
-
公开(公告)号:CN108536756A
公开(公告)日:2018-09-14
申请号:CN201810219963.9
申请日:2018-03-16
Applicant: 苏州大学
Abstract: 本发明公开了一种基于双语信息的情绪分类方法及系统,首先对收集的语料进行标注,得到标注样本,使用机器翻译程序,将中文语料翻译成英文语料、将英文语料翻译成中文语料,将两组中文语料进行合并得到最终的中文语料、将两组英文语料进行合并得到最终的英文语料;将中英文两组语料进行分词,使用词特征对文本进行特征表示;使用LSTM模型分别从中文词特征表示和英文词特征表示中学习更深层次的隐层特征;将学习到的两组隐层特征进行融合,训练情绪分类器进行情绪分类。本发明不仅解决了文本情绪分类任务中标注样本缺乏的问题,而且有效地提升了文本情绪分类任务的性能,在测试样本中取得了很好的情绪分类正确率。
-
公开(公告)号:CN104809232B
公开(公告)日:2018-06-01
申请号:CN201510236584.7
申请日:2015-05-11
Applicant: 苏州大学
Abstract: 本申请公开了一种基于句子间情绪转移概率的句子级情绪分类方法,该方法包括利用预先基于已标注情绪标签的句子级文本集建立的分类器,对待标注情绪标签的句子级文本进行预分类,得到预标注情绪标签的句子级文本;利用预先基于已标注情绪标签的句子级文本集计算得到的句子间情绪转移概率,对预标注情绪标签的句子级文本进行优化分类,得到优化分类结果。本申请公开的方法中,最终的优化分类结果是在既考虑了文本信息自身的情绪特征对文本分类的影响,又考虑到了前后两个句子间的情绪转移概率对文本分类的影响的情况下得到的,从而改善了文本信息的情绪分类效果。
-
-
-
-
-
-
-
-
-