-
公开(公告)号:CN110568290A
公开(公告)日:2019-12-13
申请号:CN201910879457.7
申请日:2019-09-18
Applicant: 山东省计算中心(国家超级计算济南中心)
Abstract: 本发明涉及声掩蔽系统技术领域,公开了声掩蔽系统多负载条件下负载工作状态实时监测装置,解决了多负载条件下负载工作状态实时监测的技术问题。通过采样模块连接有输出接口、输入接口和监测模块,所述监测模块连接有通信接口,电源模块包括电源管理模块、锂电池供电接口、适配器供电接口、参考采样电源接口,利用分压原理,结合声掩蔽系统输出信号的特性,在不影响声掩蔽系统输出信号的前提条件下,方便的实现音频发生器、振动发生器等负载器件工作状态的实时在线监测。该实时在线监测装置可以监测负载的短路、断路等异常情况,并且具有结构简单、成本低、灵敏度高、误报率低等特点。
-
公开(公告)号:CN109616143B
公开(公告)日:2019-09-10
申请号:CN201811526264.5
申请日:2018-12-13
Applicant: 山东省计算中心(国家超级计算济南中心)
IPC: G10L25/87
Abstract: 本发明公开了一种基于变分模态分解和感知哈希的语音端点检测方法,该方法包括:接收输入语音信号;将输入语音信号进行VMD分解,将VMD分解后的固有模态函数分别进行短时时频分析,得到时频分析矩阵,根据感知哈希算法计算时频分析矩阵的感知哈希值;将输入语音信号VMD分解后时频分析矩阵的感知哈希值与环境噪声VMD分解后时频分析矩阵的感知哈希值进行比较,判断输入语音信号的语音段和噪声段。
-
公开(公告)号:CN109448739A
公开(公告)日:2019-03-08
申请号:CN201811524849.3
申请日:2018-12-13
Applicant: 山东省计算中心(国家超级计算济南中心)
IPC: G10L19/00 , G10L19/02 , G10L19/032
Abstract: 本发明公开了一种基于分层聚类的声码器线谱频率参数量化方法,包括:接收语音信号并按帧提取线谱频率参数和清浊音参数;将连续若干帧的线谱频率参数和清浊音参数分别联合,组成超帧线谱频率矢量和超帧清浊音矢量;对当前超帧清浊音矢量进行矢量量化,得到量化索引,其中,当前超帧和上一超帧对应的量化索引联合组成当前转移模式;分别计算该转移模式下的线谱频率参数的直流分量,并训练预测系数,得到该转移模式下当前超帧余量线谱频率参数;根据当前转移模式选择对应量化码本,对余量线谱频率参数进行多级矢量量化,得到量化后的余量线谱频率参数。该方法考虑了线谱频率参数在不同状态下的统计特性差异,能够提高线谱频率参数的量化质量。
-
公开(公告)号:CN109346093A
公开(公告)日:2019-02-15
申请号:CN201811541115.6
申请日:2018-12-17
Applicant: 山东省计算中心(国家超级计算济南中心)
IPC: G10L19/16 , G10L19/032 , G10L25/93
Abstract: 本公开公开了一种低速率声码器子带清浊音参数提取与量化的融合方法,该方法充分考虑了子带清浊音参数的统计和量化特性,采用在提取过程中不断进行失真比较和候选矢量淘汰的方法,减少需要搜索的候选矢量,尽快锁定目标矢量,进而提前结束分析和搜索过程。可以有效用于2400bps以下的低速率、超低速率语音编码算法中,实现减少低速率声码器算法复杂度、降低系统功耗的目的。
-
公开(公告)号:CN108900273A
公开(公告)日:2018-11-27
申请号:CN201810902321.9
申请日:2018-08-09
Applicant: 山东省计算中心(国家超级计算济南中心)
Abstract: 本发明公开了一种无线传感器网络多跳一致的时间同步方法,用于为大规模无线传感器网络提供精准的时间同步服务,所述方法包括如下内容:时间同步信息产生,时间基准源节点周期性广播带有时间信息和序列号信息的同步报文;时间同步信息扩散,节点在收到同步报文后进行转发,直到所有节点转发完成;时间同步信息计算,网络中节点收到新的同步信息报文,通过时间信息和延迟时间计算出当前节点接收同步报文的发送时间戳,获得实时有效时间信息。
-
公开(公告)号:CN108461088A
公开(公告)日:2018-08-28
申请号:CN201810232462.4
申请日:2018-03-21
Applicant: 山东省计算中心(国家超级计算济南中心)
IPC: G10L19/16 , G10L19/04 , G10L25/93 , G10L19/08 , G10L19/087
Abstract: 本发明的基于支持向量机在语音解码端重构子带清浊音度参数的方法,首先利用语音样本的5个子带清浊音度参数、声道参数、基音参数和能量参数训练出5个子带清浊音判决的支持向量机模型,在低速率声码器的解码端,利用线谱频率参数、基音周期参数、能量参数与子带清浊音度参数的相关性,对子带清浊音度参数进行重构。摒弃传统编码器中对子带清浊音度参数量化编码传输的方法,在声码器中引入支持向量机,利用线谱频率参数、基音周期参数和能量参数将子带清浊音度参数直接恢复出来,在不明显降低各子带清浊音判决准确率的前提下,节省的量化比特数,可用来量化其他更加重要的参数,整体上可以进一步提升合成语音的质量。
-
公开(公告)号:CN114649003B
公开(公告)日:2025-05-09
申请号:CN202210268697.5
申请日:2022-03-18
Applicant: 山东省计算中心(国家超级计算济南中心)
Abstract: 本发明属于通信技术领域,提供了基于语音同步和模式转移的多模态加密、解密方法及装置,通过对输入的语音进行语音段检测,采用一段一密的加密方案以此达到更高的加密强度的同时,增强对信道噪声和误码的鲁棒性;采用语音段线谱频率参数平均值作为模态选择的依据,增强模式选择的多样性,同时可以抵抗各种语音压缩传输算法的压缩。
-
公开(公告)号:CN119379524B
公开(公告)日:2025-05-06
申请号:CN202411918332.8
申请日:2024-12-25
Applicant: 齐鲁工业大学(山东省科学院) , 山东省人工智能研究院 , 山东省计算中心(国家超级计算济南中心) , 山东大学 , 浙江大华技术股份有限公司 , 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) , 合肥工业大学
IPC: G06T1/00 , G06N3/0455 , G06N3/0475 , G06N3/09 , G06N3/094
Abstract: 本发明涉及一种基于多重水印融合与跨域学习的图像伪造主动防御方法,属于计算机视觉技术领域。其包括以下步骤:获取待处理图像;待处理图像经过水印编码器进行不可见水印嵌入和可见水印嵌入,分别得到嵌入不可见水印的图像和嵌入可见水印的图像;嵌入不可见水印的图像经过噪声层进行处理,得到噪声图像;嵌入可见水印的图像经过噪声层进行处理,通过可见水印联合优化在嵌入随机噪声的图像位置产生明显的虚假警示标识;噪声图像经过水印解码器进行图像的溯源和检测,判断图像的真实性;进行损失函数监督训练。本发明方法能够精准的判断图像是否经过深度伪造以及验证图像来源的真实性。
-
公开(公告)号:CN119379524A
公开(公告)日:2025-01-28
申请号:CN202411918332.8
申请日:2024-12-25
Applicant: 齐鲁工业大学(山东省科学院) , 山东省人工智能研究院 , 山东省计算中心(国家超级计算济南中心) , 山东大学 , 浙江大华技术股份有限公司 , 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) , 合肥工业大学
IPC: G06T1/00 , G06N3/0455 , G06N3/0475 , G06N3/09 , G06N3/094
Abstract: 本发明涉及一种基于多重水印融合与跨域学习的图像伪造主动防御方法,属于计算机视觉技术领域。其包括以下步骤:获取待处理图像;待处理图像经过水印编码器进行不可见水印嵌入和可见水印嵌入,分别得到嵌入不可见水印的图像和嵌入可见水印的图像;嵌入不可见水印的图像经过噪声层进行处理,得到噪声图像;嵌入可见水印的图像经过噪声层进行处理,通过可见水印联合优化在嵌入随机噪声的图像位置产生明显的虚假警示标识;噪声图像经过水印解码器进行图像的溯源和检测,判断图像的真实性;进行损失函数监督训练。本发明方法能够精准的判断图像是否经过深度伪造以及验证图像来源的真实性。
-
公开(公告)号:CN118447880A
公开(公告)日:2024-08-06
申请号:CN202410640457.2
申请日:2024-05-22
Applicant: 山东省计算中心(国家超级计算济南中心) , 齐鲁工业大学(山东省科学院)
Abstract: 本发明提供了一种基于多特征注意力融合的语音情感识别方法及系统,包括:基于获取的待识别语音信号,通过预处理获得语音信号的语谱图和梅尔频率倒谱系数;基于所述语谱图,通过时频特征提取获得语谱图特征;基于所述梅尔频率倒谱系数,利用预先训练的神经网络模型进行特征提取,获得梅尔频率倒谱系数特征;基于待识别语音信号,利用自动语音识别的预训练模型进行特征提取,获得W2E特征;分别将语谱图特征和W2E特征以及梅尔频率倒谱系数特征和W2E特征进行特征融合,获得第一融合特征和第二融合特征;基于所述第一融合特征和第二融合特征,通过全局融合获得最终的融合特征;基于获得的融合特征,利用预先训练的情感分类器,获得情感分类结果。
-
-
-
-
-
-
-
-
-