-
公开(公告)号:CN114781619B
公开(公告)日:2025-04-08
申请号:CN202210468203.8
申请日:2022-04-29
Applicant: 吉林大学
IPC: G06N3/0464 , G06N3/049 , G06N3/084 , G06N5/04
Abstract: 本申请公开了一种基于脉动阵列的软错误检测方法和装置,应用于计算机技术领域。其中,方法包括根据脉动阵列的参数和目标卷积神经网络的目标层的滤波器总数,确定目标层的冗余因子;根据目标卷积神经网络的滤波器之间的弹性差异信息和各冗余因子,确定每一层网络中用于冗余执行的脆弱滤波器;在目标卷积神经网络的权重加载过程中,将各脆弱滤波器重复加载至脉冲阵列中;将脉冲阵列的当前周期的输出信息发送至缓存区进行数值验证,并对脉冲阵列的下一个周期的重复滤波器的输出信息进行错误检,从而在保证错误检测能力的基础上,显著降低能量开销。
-
公开(公告)号:CN116244203A
公开(公告)日:2023-06-09
申请号:CN202310247891.X
申请日:2023-03-15
Applicant: 吉林大学
Abstract: 本发明公开了一种检查点设置方法、装置、设备及存储介质;本方案在目标程序中设置检查点时,可利用目标程序中的软错误倾向性指令及计算密集型代码块,有针对性的在目标程序中设置检查点,减少程序运行过程中系统保存检查点状态操作的资源消耗,以及系统失效后回滚操作的资源消耗。
-
公开(公告)号:CN109815104A
公开(公告)日:2019-05-28
申请号:CN201910107441.4
申请日:2019-02-02
Applicant: 吉林大学
Abstract: 本发明提供基于软错误感知的GPGPU程序近似分析系统及方法,以实现对GPGPU程序进行可靠性分析。上述系统进行了多次软错误模拟,将发生软错误后的错误输出结果进行了归类。在归类过程中,根据错误输出结果与标准输出结果间的误差(差异)是否超过用户质量需求,将差异发生类型(SDC)的错误输出,近一步划分为差异可接受类型和差异不可接受类型。这反映了程序可容忍一定范围的误差的近似特性,因此本发明实施例所进行的归类是近似归类。而基于近似归类所进行的可靠性分析,即为“可靠性近似分析”。可靠性近似分析有助于找出真正严重的错误,以此为依据设计保护策略可减少没必要的保护和开销。
-
公开(公告)号:CN116467172A
公开(公告)日:2023-07-21
申请号:CN202310247897.7
申请日:2023-03-15
Applicant: 吉林大学
IPC: G06F11/36 , G06F18/214 , G06F18/241
Abstract: 本发明公开了一种识别指令软错误类型的方法、装置、设备及介质;本方案在识别目标程序中指令软错误类型时,并不需要对目标程序执行大量的注错实验,只需要通过少量的注错实验得到的结果构建指令识别模型,即可利用该指令识别模型自动识别目标程序中各指令发生软错误的错误类型,可以很大程度上降低容错分析的开销;并且,这种分析方式不需要依赖人工识别,可以提高指令识别的效率和准确度。
-
公开(公告)号:CN116302480A
公开(公告)日:2023-06-23
申请号:CN202211731488.6
申请日:2022-12-30
Applicant: 吉林大学
IPC: G06F9/50 , G06F11/07 , G06F18/241 , G06F18/214 , G06N3/0464
Abstract: 本发明公开的基于GPU张量核的软错误预测模型生成方法和预测方法,应用于计算机技术领域,包括:对运行在TensorCore上的CNN程序进行预设数量的错误注入,得到软错误预测模型对应的训练数据集;获取根据所述训练数据集得到的带标签训练数据集;所述带标签数据集为标签为Masked的数据集和标签为SDC的数据集;根据TensorCore特征和CNN特征,以及软错误引起的故障类型Masked和SDC得到带标签数据集;根据所述带标签训练数据集对机器学习模型进行训练,得到软错误预测模型。本发明通过与软错误相关的特征和故障类型构建训练数据集得到软错误预测模型并进行预测,提高了软错误预测的准确性。
-
公开(公告)号:CN111309514B
公开(公告)日:2021-06-01
申请号:CN202010108481.3
申请日:2020-02-21
Applicant: 吉林大学
IPC: G06F11/10 , G06F9/30 , G06F1/3234
Abstract: 本发明公开了一种GPGPU寄存器的纠错码生成方法、装置、设备及存储介质。该方法的步骤包括:通过目标warp中的各线程分别读取对应的数据并执行数据运算;其中,目标warp中各线程读取的数据均相同;利用目标warp中的各线程分别将相应的运算后数据写入对应的目的寄存器;其中,目标warp中的各线程对应的目的寄存器均不相同;基于目标warp中的一个目标线程计算得到相应运算后数据的纠错码。本方法相对降低了纠错码生成过程的运算资源开销,进而相对降低了GPGPU数据处理过程中GPGPU的整体资源开销以及能耗。此外,本发明还提供一种GPGPU寄存器的纠错码生成装置、设备及存储介质,有益效果同上所述。
-
公开(公告)号:CN119088663B
公开(公告)日:2025-01-28
申请号:CN202411586571.8
申请日:2024-11-08
Applicant: 吉林大学
IPC: G06F11/34 , G06F11/30 , G06F21/55 , G06F9/54 , G06F18/243 , G06N5/01 , G06N20/20 , G06N3/0455 , G06F123/02
Abstract: 本申请公开了一种集群数据处理方法、装置、设备及介质,涉及计算机技术领域,包括:收集计算节点多个维度的当前负载数据;对当前负载数据进行预处理,并通过多个不同主题的消息队列及根据预处理后负载数据的维度信息对预处理后负载数据进行分类存储;根据当前待分析指标从至少一个主题的消息队列存储的预处理后负载数据中获取与目标维度对应的第一数据;将第一数据输入至目标时间序列模型,以输出得到与目标维度对应的预测负载数据,将第一数据输入至目标随机森林分类模型,以输出得到与目标维度对应的安全状态评分。本申请基于消息队列的特点对传统信息收集存储技术进行改进,解决了传统技术开销大、响应慢以及IO量不均衡的问题。
-
公开(公告)号:CN118446270A
公开(公告)日:2024-08-06
申请号:CN202410713760.0
申请日:2024-06-04
Applicant: 吉林大学
Abstract: 本申请公开了一种锐度感知最小化的DNN训练方法、装置、设备及介质,涉及深度神经网络技术领域,包括对DNN的权重二进制表达中的任一位进行比特位翻转,得到翻转后的DNN,对翻转后的DNN在受到渐进比特翻转攻击时的状态进行实时观察;基于观察结果并利用锐度感知最小化方法对DNN进行训练,引入目标扰动,得到训练后的DNN;目标扰动为满足预设微小扰动条件的扰动;评估训练后的DNN在进行比特位翻转以及受到渐进比特翻转攻击时的鲁棒性,若鲁棒性通过,则将训练后的DNN作为目标DNN。本申请能提高DNN面向比特翻转的鲁棒性,同时解决DNN在没有比特翻转干扰时的性能下降的问题。
-
公开(公告)号:CN113610154A
公开(公告)日:2021-11-05
申请号:CN202110903201.2
申请日:2021-08-06
Applicant: 吉林大学
Abstract: 本申请公开了一种GPGPU程序SDC错误检测方法及装置,包括:获取待检测程序,并确定待检测程序的待检测指令中具有高SDC倾向性的SDC脆弱指令;待检测程序为GPGPU程序,SDC倾向性与待检测指令具有SDC错误的概率之间呈正相关关系;根据待检测程序的各基本块中的SDC脆弱指令之间的依赖关系构建与各基本块对应的指令路径;指令路径为包括具有依赖关系的多个SDC脆弱指令的第一类路径和/或包括与任一所述SDC脆弱指令均不具有依赖关系的单个所述SDC脆弱指令的第二类路径;对指令路径进行复制得到副本路径,并基于指令路径和副本路径对待检测程序中的SDC错误进行检测。本申请在保证程序可靠性的情况下通过少量指令复制以对大量SDC错误进行检测,提高错误检测效率。
-
公开(公告)号:CN119088663A
公开(公告)日:2024-12-06
申请号:CN202411586571.8
申请日:2024-11-08
Applicant: 吉林大学
IPC: G06F11/34 , G06F11/30 , G06F21/55 , G06F9/54 , G06F18/243 , G06N5/01 , G06N20/20 , G06N3/0455 , G06F123/02
Abstract: 本申请公开了一种集群数据处理方法、装置、设备及介质,涉及计算机技术领域,包括:收集计算节点多个维度的当前负载数据;对当前负载数据进行预处理,并通过多个不同主题的消息队列及根据预处理后负载数据的维度信息对预处理后负载数据进行分类存储;根据当前待分析指标从至少一个主题的消息队列存储的预处理后负载数据中获取与目标维度对应的第一数据;将第一数据输入至目标时间序列模型,以输出得到与目标维度对应的预测负载数据,将第一数据输入至目标随机森林分类模型,以输出得到与目标维度对应的安全状态评分。本申请基于消息队列的特点对传统信息收集存储技术进行改进,解决了传统技术开销大、响应慢以及IO量不均衡的问题。
-
-
-
-
-
-
-
-
-