-
公开(公告)号:CN104616031A
公开(公告)日:2015-05-13
申请号:CN201510032970.4
申请日:2015-01-22
Applicant: 哈尔滨工业大学深圳研究生院
CPC classification number: G06K9/6256 , G06K9/6262
Abstract: 本发明公开了一种迁移学习方法及装置,方法包括:设置迁移学习的相关参数并初始化;开始迁移学习迭代,获得自动化标注数据;当迭代次数满足迭代周期,对该迭代周期内作为样本的自动化标注数据进行误差检测,确定该迭代周期的样本相对质量;根据样本相对质量确定样本的删除或保留,并确定是否继续迁移学习迭代,当终止迁移学习迭代,输出保留的样本和迁移分类器。本发明的有益效果是:在迁移学习过程中,将学习过程按迁移周期划分,每满一个迁移周期则进行误差检测,根据误差检测确定的样本相对质量筛选样本,由此来剔除低质量样本以达到提高迁移学习中自动标注数据的样本质量的目的,进而提升应用迁移学习方法的系统的准确性。
-
公开(公告)号:CN115292551B
公开(公告)日:2025-05-16
申请号:CN202210793375.2
申请日:2022-07-05
Applicant: 哈尔滨工业大学(深圳)
IPC: G06F16/901 , G06N3/045 , G06N3/042 , G06N3/0464 , G06N3/048 , G06N3/08 , G06N5/04 , G06F40/279
Abstract: 本申请公开了事件因果关系识别模型的识别方法、设备及存储介质。该方法包括:基于文档的文本内容建立以向量表征的实例节点、事件节点以及文档节点;将各实例节点、事件节点与文档节点之间有条件地进行连接,以构建关系图模型;通过图卷积网络对关系图模型进行训练,以利用与每个实例节点、每个事件节点以及文档节点连接的其他节点对应更新各节点;基于更新后的各节点,通过节点之间已建立的连接关系获得两个事件节点之间的连接路径;基于两个事件节点之间的连接路径,计算两个事件节点之间的因果概率,以识别两个事件节点对应的文本事件之间的因果关系。通过上述方式,本申请实现以事件为单位进行因果关系识别,降低因果关系识别的误差。
-
公开(公告)号:CN116306582A
公开(公告)日:2023-06-23
申请号:CN202211088195.0
申请日:2022-09-06
Applicant: 哈尔滨工业大学(深圳)
IPC: G06F40/216 , G06F40/126 , G06N3/042 , G06N3/0464 , G06N3/048 , G06N3/0442 , G06N3/08
Abstract: 本申请公开了一种文本论辩策略分析方法、分析装置及计算机可读存储介质,方法包括:获取目标论辩文本;采用论辩部件序列编码器,将目标论辩文本编码为论辩部件序列;针对当前论辩部件,获取论辩部件序列中各个历史论辩部件对应的概率分布;根据各个历史论辩部件对应的概率分布,确定当前论辩部件对应的历史预测向量;获取目标历史论辩部件对应的目标向量;根据目标历史论辩部件对应的目标向量、历史预测向量以及当前论辩部件的表示向量,确定当前论辩部件对应的目标向量;对当前论辩部件对应的目标向量进行预测,得到对当前论辩部件进行预测的概率分布。通过上述方式,本申请能够提高对目标论辩文本进行论辩策略分析的准确率。
-
公开(公告)号:CN115994518A
公开(公告)日:2023-04-21
申请号:CN202211086035.2
申请日:2022-09-06
Applicant: 哈尔滨工业大学(深圳)
IPC: G06F40/166 , G06F40/216 , G06N3/08
Abstract: 本申请公开了一种回复文本的生成方法、生成装置及计算机可读存储介质,该生成方法包括:获取目标论辩文本以及目标论辩文本对应的背景知识文本;将目标论辩文本划分为多个第一字符,多个第一字符按照从前到后的顺序依次进行排列;根据目标论辩文本以及背景知识文本,生成每个第一字符对应的第一回复字符;根据每个第一字符对应的第一回复字符,生成目标论辩文本对应的目标回复文本。本申请所提供的方法能够提高回复文本的生成准确率。
-
公开(公告)号:CN115935030A
公开(公告)日:2023-04-07
申请号:CN202211516690.7
申请日:2022-11-29
Applicant: 哈尔滨工业大学(深圳)
IPC: G06F16/9032 , G06F16/903 , G06F16/332 , G06F16/33 , G06F40/205
Abstract: 本申请公开了一种答案分析方法、装置及计算机可读存储介质,该方法包括:获取目标常识问题和对应的多个待分析答案;将目标常识问题和对应的多个待分析答案输入答案分析模型,得到多个答案中每一答案的典型性得分;筛选典型性得分对应的答案,并将筛序结果对应的答案作为目标常识问题的最终答案。通过上述方法,能够使常识问题的答案具有对应典型性,进而使最终答案更符合目标常识问题。
-
公开(公告)号:CN115828923A
公开(公告)日:2023-03-21
申请号:CN202211443788.4
申请日:2022-11-17
Applicant: 哈尔滨工业大学(深圳)
Abstract: 本发明公开了一种模型的训练方法、装置以及计算机可读存储介质,该方法包括:获取当前批次的第一样本数据;将第一样本数据输入目标模型,得到每个样本话语的第一预测情感标签;屏蔽第一样本数据中的上下文表征向量或者外部知识表征向量,得到第二样本数据;将第二样本数据输入目标模型,得到每个样本话语的第二预测情感标签;针对每个样本话语,根据样本话语的第一预测情感标签与第二预测情感标签是否相同,设置对应的第一目标标签;根据每个样本话语的话语表征向量以及每个样本话语的第一目标标签进行有监督对比损失计算;根据得到的第一损失值,对目标模型进行训练。本申请的方法能够提升模型的性能。
-
公开(公告)号:CN115204181A
公开(公告)日:2022-10-18
申请号:CN202210869399.1
申请日:2022-07-22
Applicant: 哈尔滨工业大学(深圳)
IPC: G06F40/30 , G06K9/62 , G06F16/35 , G06F40/253 , G06F40/268 , G06N3/04 , G06N3/08
Abstract: 本申请公开了文本检测方法、装置、电子设备以及计算机可读存储介质,文本检测方法,包括:获取到待检测文本;遮盖待检测文本的每个正向情感词,得到第一掩码文本;以及,遮盖待检测文本的每个负向情感词,得到第二掩码文本;对第一掩码文本中被掩盖的正向情感词进行预测,以生成第一重构文本;以及,对第二掩码文本中被掩盖的负向情感词进行预测,以生成第二重构文本;确定第一重构文本与待检测文本的第一相似度以及第二重构文本与待检测文本的第二相似度;响应于第一相似度和/或第二相似度小于设定阈值,确定待检测文本为讽刺文本。本申请不仅能够提高对讽刺文本的检测准确率,还能够节省大量的数据标注工作,实现无监督讽刺检测。
-
公开(公告)号:CN115169365A
公开(公告)日:2022-10-11
申请号:CN202210821444.6
申请日:2022-07-12
Applicant: 哈尔滨工业大学(深圳)
IPC: G06F40/35 , G06N5/02 , G06K9/62 , G06F40/242
Abstract: 本申请公开了用于对话情感识别模型的训练处理方法、电子设备、存储介质,对话情感识别模型的训练处理方法包括:获取训练样本中的当前对话元素;从对话情感识别模型的外部知识库中获取与当前对话元素相对应的各外部知识;判断当前对话元素与对应的各外部知识是否相匹配;若不匹配,则剔除外部知识库中与当前对话元素不匹配的外部知识;若匹配,则保留外部知识库中与当前对话元素匹配的外部知识。通过上述方式,本申请能够提高对话情感识别模型预测情感的准确性。
-
公开(公告)号:CN112052480A
公开(公告)日:2020-12-08
申请号:CN202010953756.3
申请日:2020-09-11
Applicant: 哈尔滨工业大学(深圳)
IPC: G06F21/62
Abstract: 本发明实施例提供了一种模型训练过程中的隐私保护方法、系统及相关设备,用于实现模型训练过程中的隐私保护。本发明实施例方法包括:接收服务端发送的目标模型,并接收服务端发送的选择指令,选择指令用于指示随机选中的部分客户端;被选中的客户端以概率P参与目标模型训练,未被选中的客户端以概率(1‑P)参与目标模型训练;所有确定参与目标模型训练的客户端作为目标客户端,分别采用本地数据对目标模型进行训练,并计算每个训练之后的目标模型的模型参数更新值;按照预设差分隐私算法对每组模型参数更新值进行处理生成更新数据,并将更新数据返回给服务端,以使得服务端根据所有的更新数据生成本轮训练的全局模型。
-
公开(公告)号:CN110222342A
公开(公告)日:2019-09-10
申请号:CN201910511670.2
申请日:2019-06-13
Applicant: 哈尔滨工业大学(深圳)
Abstract: 一种文本情感原因发现装置,该装置包括词-子句层级结构,包含有四部分:词级别编码器、词级别注意力、子句级别编码器、子句级别注意力;其中,词级别编码器,将文本送入词级别编码器,用于捕获词与词之间的序列特征;词级别注意力,通过当前词语的隐状态表示和与之对应的情绪表达词之间的关系来获得词级别的注意力值,用来指示当前词在其所在的子句中所占的重要程度,然后通过权重和累加操作获得每个子句的表示;子句级别注意力,利用一个分类器来获得当前子句是情感原因的概率,并以此作为子句的注意力值,同时将当前子句距离情绪表达词的距离的分布式表示与子句表示拼接;子句级别编码器,通过子句级编码器获取不同子句之间的结构性信息更新子句表示,通过softmax来获得分类特征的概率分布。通过该装置可以帮助机器更加精准地判断人类触发情感的原因。
-
-
-
-
-
-
-
-
-