-
公开(公告)号:CN107863147B
公开(公告)日:2021-03-16
申请号:CN201711002335.7
申请日:2017-10-24
Applicant: 清华大学 , 鄂东医疗集团市中心医院
Abstract: 本发明公开了基于深度卷积神经网络的医疗诊断的方法,该方法包括:获取待诊断的电子病历对应的词向量矩阵;将待诊断的电子病历对应的词向量矩阵输入到预先构建的深度卷积神经网络模型中,获取待诊断的电子病历的特征向量;利用分类器对待诊断的电子病历的特征向量进行分类,获取待诊断的电子病历对应的各个病症的患病概率。该方法将卷积神经网络运用到医疗电子病历文本语义理解并进行辅助医疗诊断,能有效克服基于规则抽取和匹配的方法所具有的缺陷。
-
公开(公告)号:CN110110318B
公开(公告)日:2021-02-05
申请号:CN201910058680.5
申请日:2019-01-22
Applicant: 清华大学
IPC: G06F40/279 , G06F40/216 , G06F16/35 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于循环神经网络的文本隐写检测方法及系统,其中,该方法包括:获取词向量矩阵,根据词向量矩阵将待检测文本转化为输入词向量序列;将输入词向量序列输入到预先构建的循环神经网络模型中,生成表示待检测文本词语间相关关系的特征向量;通过分类器对特征向量进行分类,判断待检测文本是否包含隐藏信息;若待检测文本包含隐藏信息,则根据不同嵌入率下隐写文本特征向量的区别估计待检测文本的信息嵌入率。该方法将循环神经网络运用到文本隐写检测中,能有效鉴别文本载体是否含有隐藏信息,并根据抽取特征的统计分布准确估计隐藏信息的容量。
-
公开(公告)号:CN106445914B
公开(公告)日:2020-06-19
申请号:CN201610824487.4
申请日:2016-09-13
Applicant: 清华大学
IPC: G06F40/289 , G06F16/35
Abstract: 本发明公开了一种微博情感分类器的构建方法及构建装置,其中,方法包括以下步骤:获取多条微博数据;对微博文本进行分词得到词语集合;根据海量无标注的微博文本数据得到词语‑词语情感关联关系和词语‑情感关联关系;对预设数量的微博文本数据进行人工标注,以赋予情感标签得到有标注的微博情感数据集;将词语‑词语情感关联关系、词语‑情感关联关系和有标注的微博情感数据集融合得到多源异构情感信息,并建立数学模型,以得到微博情感分类器。该方法可以通过融合多源异构情感信息得到微博情感分类器,从而对微博消息所表达的情感倾向性进行分类,提高了分类器的鲁棒性和准确率,成本低,简单易实现。
-
公开(公告)号:CN110110318A
公开(公告)日:2019-08-09
申请号:CN201910058680.5
申请日:2019-01-22
Applicant: 清华大学
Abstract: 本发明公开了一种基于循环神经网络的文本隐写检测方法及系统,其中,该方法包括:获取词向量矩阵,根据词向量矩阵将待检测文本转化为输入词向量序列;将输入词向量序列输入到预先构建的循环神经网络模型中,生成表示待检测文本词语间相关关系的特征向量;通过分类器对特征向量进行分类,判断待检测文本是否包含隐藏信息;若待检测文本包含隐藏信息,则根据不同嵌入率下隐写文本特征向量的区别估计待检测文本的信息嵌入率。该方法将循环神经网络运用到文本隐写检测中,能有效鉴别文本载体是否含有隐藏信息,并根据抽取特征的统计分布准确估计隐藏信息的容量。
-
公开(公告)号:CN109815496A
公开(公告)日:2019-05-28
申请号:CN201910059159.3
申请日:2019-01-22
Applicant: 清华大学
Abstract: 本发明公开了一种基于容量自适应收缩机制载体生成式文本隐写方法及装置,其中,方法包括以下步骤:步骤S1,对目标文本进行建模,并利用循环神经网络模型从目标文本中训练得到统计语言模型,以根据统计语言模型统计目标文本中每个词在每个时刻的条件概率分布;步骤S2,通过对条件概率分布进行基于容量自适应收缩的可变长度编码,以隐藏每个词的秘密比特流;步骤S3,根据每个词的隐藏秘密比特流生成目标文本的隐写文本。该方法基于载体生成的隐写术,它可以根据需要隐藏的秘密比特流,利用容量自适应收缩机制,自动生成高质量的隐写文本。
-
公开(公告)号:CN109711121A
公开(公告)日:2019-05-03
申请号:CN201811610142.4
申请日:2018-12-27
Applicant: 清华大学
IPC: G06F21/16 , G06F16/332
Abstract: 本发明公开了一种基于马尔可夫模型和哈夫曼编码的文本隐写方法及装置,方法包括:得到训练集,并构建相应的马尔可夫网络模型;按照词频排序生成词典D;构成预设列表;随机从预设列表中选择一个词作为训练好的Marcov网络模型的输入;迭代式计算各个时刻词的动态条件概率分布;选用排序靠前的N个词构成候选词词列表;构建哈夫曼树,并进行哈夫曼编码;根据需要嵌入的码流从哈夫曼树的根结点开始搜索,直到搜索到相应的叶子结点对应的词作为当前时刻的输出;重复执行直到生成完整的隐写文本;发送完整的隐写文本,以使接收方在接收隐写文本后,对隐写文本进行解码并获取机密消息。该方法可以有效提高生成隐写文本的质量,提升系统隐蔽性。
-
公开(公告)号:CN110428846A
公开(公告)日:2019-11-08
申请号:CN201910609734.2
申请日:2019-07-08
Applicant: 清华大学
IPC: G10L19/018 , G06N3/08 , G06N3/04
Abstract: 本发明公开了一种基于双向循环神经网络的网络语音流隐写分析方法及装置,其中,该方法包括:S1,获取网络语音流训练集样本和网络语音流测试集样本;S2,通过滑动窗口方法从网络语音流训练集样本中抽取网络语音载荷进行处理得到量化索引向量;S3,利用码字相关模型抽取量化索引向量中的码字相关向量;S4,通过特征分类模型对码字相关向量进行分类;S5,通过监督方法对步骤S2-S4进行迭代,生成隐写检测模型;S6,将网络语音流测试集样本输入隐写检测模型进行检测得到隐写概率,根据隐写概率判断网络语音流测试集样本是否隐写。该方法能够快速且高效的判断出原始语音流是否经过信息隐写。
-
公开(公告)号:CN109711121B
公开(公告)日:2021-03-12
申请号:CN201811610142.4
申请日:2018-12-27
Applicant: 清华大学
IPC: G06F21/16 , G06F16/332
Abstract: 本发明公开了一种基于马尔可夫模型和哈夫曼编码的文本隐写方法及装置,方法包括:得到训练集,并构建相应的马尔可夫网络模型;按照词频排序生成词典D;构成预设列表;随机从预设列表中选择一个词作为训练好的Marcov网络模型的输入;迭代式计算各个时刻词的动态条件概率分布;选用排序靠前的N个词构成候选词词列表;构建哈夫曼树,并进行哈夫曼编码;根据需要嵌入的码流从哈夫曼树的根结点开始搜索,直到搜索到相应的叶子结点对应的词作为当前时刻的输出;重复执行直到生成完整的隐写文本;发送完整的隐写文本,以使接收方在接收隐写文本后,对隐写文本进行解码并获取机密消息。该方法可以有效提高生成隐写文本的质量,提升系统隐蔽性。
-
公开(公告)号:CN109817233A
公开(公告)日:2019-05-28
申请号:CN201910073812.1
申请日:2019-01-25
Applicant: 清华大学
IPC: G10L19/018
Abstract: 本发明公开了一种基于层次注意力网络模型的语音流隐写分析方法及系统,其中,该方法包括以下步骤:采集网络上的语音流,将语音流作为训练数据,其中,训练数据包含原始语音流片段以及嵌入秘密信息的语音流片段;将训练数据在层次注意力网络模型上进行学习,获得训练后的语音流隐写分析模型;通过滑动窗口方法获得语音载荷经过压缩量化之后的量化系数向量,并在层次注意力网络模型上对量化系数向量矩阵进行检测,确定待检测的量化系数向量是否经过隐写之后的语音得到,若是,则确定原始语音流为隐写语音流。该方法通过自动学习创建盲检测模型并能非常快速且准确的辨别网络语音流当中的隐写语音数据,其性能大幅好于之前的网络语音流隐写分析方法。
-
公开(公告)号:CN109817233B
公开(公告)日:2020-12-01
申请号:CN201910073812.1
申请日:2019-01-25
Applicant: 清华大学
IPC: G10L19/018
Abstract: 本发明公开了一种基于层次注意力网络模型的语音流隐写分析方法及系统,其中,该方法包括以下步骤:采集网络上的语音流,将语音流作为训练数据,其中,训练数据包含原始语音流片段以及嵌入秘密信息的语音流片段;将训练数据在层次注意力网络模型上进行学习,获得训练后的语音流隐写分析模型;通过滑动窗口方法获得语音载荷经过压缩量化之后的量化系数向量,并在层次注意力网络模型上对量化系数向量矩阵进行检测,确定待检测的量化系数向量是否经过隐写之后的语音得到,若是,则确定原始语音流为隐写语音流。该方法通过自动学习创建盲检测模型并能非常快速且准确的辨别网络语音流当中的隐写语音数据,其性能大幅好于之前的网络语音流隐写分析方法。
-
-
-
-
-
-
-
-
-