防止模型参数窃取的方法、装置、计算机设备及存储介质

    公开(公告)号:CN113821792A

    公开(公告)日:2021-12-21

    申请号:CN202110966502.X

    申请日:2021-08-23

    Abstract: 本发明公开了一种防止模型参数窃取的方法、装置、设备及存储介质,其中方法包括以下步骤:S1.训练多个不同精度的蜜罐模型库:构建蜜罐模型集合,将训练集划分为多份并按序取出每份训练数据,多轮训练蜜罐模型集合的所有蜜罐模型,每一轮用测试集测试蜜罐模型的准确率,若蜜罐模型的准确率大于设定的阈值,则终止下一轮的训练;多轮迭代训练后,生成不同准确率等级的蜜罐模型;S2.判断请求是否为攻击者发起:根据用户的访问频次以及查询样本的分布情况,计算每次请求的攻击概率,判断请求是否为攻击行为;S3.诱导攻击者访问蜜罐模型:将不同攻击概率的请求诱导到相应精度的蜜罐模型。本发明极大增强了模型的安全性和业务的鲁棒性。

    基于同态加密模型参数防窃取的网络威胁检测方法及系统

    公开(公告)号:CN116743346A

    公开(公告)日:2023-09-12

    申请号:CN202310942927.6

    申请日:2023-07-28

    Abstract: 本发明提供基于同态加密模型参数防窃取的网络威胁检测方法及系统,属于人工智能及网络安全技术领域,解决了现有技术在存在的参数窃取、隐私泄露问题;包括:S1、多维度的采集用户端特征数据并预处理,得到多维特征向量;S2、进行本地同态加密,得到密文数据并通过网络发送至服务端;S3、服务端接收并处理密文数据,通过基于同态加密的深度学习网络威胁检测模型,得出密文状态下的威胁检测结果并通过网络发送至用户端;S4、用户端对密文状态进行解密,再通过数据后处理操作,得到具体的网络威胁检测分类结果;本发明在不损失网络威胁检测结果准确性的前提下,控制了模型信息泄露问题,降低了用户数据隐私泄露的风险。

    防止模型参数窃取的方法、装置、计算机设备及存储介质

    公开(公告)号:CN113821792B

    公开(公告)日:2024-09-06

    申请号:CN202110966502.X

    申请日:2021-08-23

    Abstract: 本发明公开了一种防止模型参数窃取的方法、装置、设备及存储介质,其中方法包括以下步骤:S1.训练多个不同精度的蜜罐模型库:构建蜜罐模型集合,将训练集划分为多份并按序取出每份训练数据,多轮训练蜜罐模型集合的所有蜜罐模型,每一轮用测试集测试蜜罐模型的准确率,若蜜罐模型的准确率大于设定的阈值,则终止下一轮的训练;多轮迭代训练后,生成不同准确率等级的蜜罐模型;S2.判断请求是否为攻击者发起:根据用户的访问频次以及查询样本的分布情况,计算每次请求的攻击概率,判断请求是否为攻击行为;S3.诱导攻击者访问蜜罐模型:将不同攻击概率的请求诱导到相应精度的蜜罐模型。本发明极大增强了模型的安全性和业务的鲁棒性。

    一种求解网络攻防博弈精炼BNE的方法及系统

    公开(公告)号:CN116579430A

    公开(公告)日:2023-08-11

    申请号:CN202310505035.X

    申请日:2023-05-06

    Abstract: 本发明涉及网络攻防博弈技术领域,公开了一种求解网络攻防博弈精炼BNE的方法及系统,该方法,在量化网络攻防博弈过程中,将完全信息动态博弈的子博弈完美纳什均衡与不完全信息静态博弈的贝叶斯纳什均衡结合,并考虑角色互换的情形,将精炼BNE问题的求解转化为收益最大化问题的求解;其中,角色互换指攻击方变为防御方,或,防御方变为攻击方。本发明解决了现有技术存在的难以准确量化描述复杂的网络攻防博弈过程等问题。

    一种高效的规模化人工智能模型安全性评估方法及装置

    公开(公告)号:CN115455422A

    公开(公告)日:2022-12-09

    申请号:CN202210997878.1

    申请日:2022-08-19

    Abstract: 本发明公开了一种高效的规模化人工智能模型安全性评估方法及装置,其中方法包括:对待测人工智能模型的输入进行预处理,并根据使用的攻击和防御方法生成相应的配置文件;对物理资源进行监控,实时记录资源使用情况;将所有对抗攻击方法打包为Docker镜像形式保存在镜像库,根据为待测人工智能模型生成的配置文件以及资源使用情况启动对应的测试任务,从镜像库中启动相应攻击方法的镜像容器,被启动的镜像容器根据配置文件自动执行攻击算法,攻击结束后将镜像容器返回的结果保存至数据库。可实现不同框架模型之间的统一格式转换和描述,支持多种人工智能框架,可实现对抗样本攻击算法的虚拟化和容器化。

    一种深度学习对抗样本安全性评价方法

    公开(公告)号:CN115438337A

    公开(公告)日:2022-12-06

    申请号:CN202211012282.8

    申请日:2022-08-23

    Abstract: 本发明公开了一种深度学习对抗样本安全性评价方法,包括以下步骤:S1.利用不同对抗样本生成策略生成不同的对抗样本集;S2.依次利用生成的各对抗样本集对待测深度学习模型进行攻击,分别计算攻击有效性评价指标;S3.为待测深度学习模型装备对抗样本防御方法,计算防御有效性评价指标,构建隶属度评价矩阵;S4.对隶属度评价矩阵中的元素进行标准化处理;S5.计算第j个防御有效性评价指标下第i个对抗样本集的贡献度;S6.计算第j个防御有效性评价指标的信息熵和测试结果一致性程度;S7.计算第j个防御有效性评价指标的权重:S8.计算对抗样本安全性综合评分。本发明能够对深处学习模型的对抗样本安全性进行全面客观的评价。

Patent Agency Ranking