减轻对于模型的同时预测和优化的对抗性攻击

    公开(公告)号:CN117425902A

    公开(公告)日:2024-01-19

    申请号:CN202280039346.5

    申请日:2022-06-21

    Abstract: 公开了一种用于提供对抗性机器学习模型的预测和优化的方法。所述方法可以包括用于确定最优量的对抗性训练的防卫者的训练方法,所述最优量的对抗性训练将防止任务优化模型采取由来自到同时预测和优化框架中的模型的输入的对抗性攻击引起的错误决策。本质上,该方法将经由对抗性训练来训练鲁棒模型。基于鲁棒训练模型,用户可以通过(基于任务的优化模型中的对抗性噪声)基于来自由输入产生的机器学习预测的给定输入来减轻潜在威胁。

    联邦学习环境中的通信
    2.
    发明公开

    公开(公告)号:CN111931949A

    公开(公告)日:2020-11-13

    申请号:CN202010395898.2

    申请日:2020-05-12

    Abstract: 公开了一种在联邦学习环境中进行通信的计算机实现的方法,该联邦学习环境包括:聚合器和多个联邦学习参与者,该多个联邦学习参与者分别地维持它们自己的数据并且与聚合器通信。聚合器针对与落后者相关联的因素监测多个联邦学习参与者。基于对因素的监测,联邦学习参与者被分配到多个层中。聚合器查询在所选择的层中的联邦学习参与者并且将晚响应者指定为落后者。可针对每一层定义最大等待时间。聚合器应用针对退学者的预测响应以更新联邦学习模型的训练,该预测响应包括所收集的参与者的回答以及与所述落后者相关联的计算预测。在指定等待时间内未响应的联邦学习参与者被指定为退学者。联邦学习模型的训练用所收集的参与者的回答以及与退学者相关联的计算预测来更新。

    联邦学习中的参数共享
    3.
    发明公开

    公开(公告)号:CN115280325A

    公开(公告)日:2022-11-01

    申请号:CN202180020309.5

    申请日:2021-03-18

    Abstract: 一种用于跨多个数据方进行联邦学习的方法,包括在对象存储库中给每个数据方分配对应命名空间(701),在对象存储库中分配共享命名空间(702),以及通过向至少一个数据方发布定制学习请求来触发一轮联邦学习(703)。向数据方发布的每个定制学习请求触发该数据方基于由该数据方拥有的训练数据和在对象存储库中的共享命名空间中存储的一个或多个模型参数来本地训练模型,并且将从本地训练产生的本地模型上传到分配给该数据方的在对象存储库中的对应命名空间。该方法进一步包括从对象存储库检索在该轮联邦学习期间由所述至少一个数据方上传到对象存储库的至少一个本地模型(704),并聚合这些本地模型以获得共享模型(705)。

    建立联合学习框架
    4.
    发明公开

    公开(公告)号:CN112347754A

    公开(公告)日:2021-02-09

    申请号:CN202010764523.9

    申请日:2020-07-30

    Abstract: 实施例涉及用于构建联合学习框架的智能计算机平台,所述联合学习框架包括创建机器学习模型(MLM)的层次结构。MLM的层次结构具有在一级层中的一级MLM。训练一级MLM包括通过至少一个通信信道捕获贡献模型更新。创建二级MLM并将其逻辑上放置在层次结构的二级层中。二级MLM通过至少一个通信信道可操作地耦合到一级MLM。初始化创建的二级MLM,包括将一级MLM的权重和框架克隆到二级MLM中,并使用二级数据填充创建的二级MLM。填充的数据具有在创建的二级MLM局部的模型更新。二级MLM在逻辑上存储在二级层局部,并将对二级MLM的访问限制在二级层。

    建立联合学习框架
    5.
    发明授权

    公开(公告)号:CN112347754B

    公开(公告)日:2025-01-03

    申请号:CN202010764523.9

    申请日:2020-07-30

    Abstract: 实施例涉及用于构建联合学习框架的智能计算机平台,所述联合学习框架包括创建机器学习模型(MLM)的层次结构。MLM的层次结构具有在一级层中的一级MLM。训练一级MLM包括通过至少一个通信信道捕获贡献模型更新。创建二级MLM并将其逻辑上放置在层次结构的二级层中。二级MLM通过至少一个通信信道可操作地耦合到一级MLM。初始化创建的二级MLM,包括将一级MLM的权重和框架克隆到二级MLM中,并使用二级数据填充创建的二级MLM。填充的数据具有在创建的二级MLM局部的模型更新。二级MLM在逻辑上存储在二级层局部,并将对二级MLM的访问限制在二级层。

    联合学习系统中的语义学习
    6.
    发明公开

    公开(公告)号:CN116097288A

    公开(公告)日:2023-05-09

    申请号:CN202180061858.7

    申请日:2021-09-08

    Abstract: 提供了一种用于利用语义学习增强的联合学习的方法、计算机系统和计算机程序产品。聚合器可以从分布式计算设备接收集群信息。集群信息可以与分布式计算设备的样本数据中的所识别的集群有关。聚合器可以集成集群信息以定义类别。该集成可以包括识别所识别的集群中的任何冗余集群。类别的数量可以对应于来自分布式计算设备的集群的总数减去任何冗余集群。深度学习模型可以从聚合器发送到分布式计算设备。深度学习模型可以包括具有可以对应于所定义的类别的节点的输出层。聚合器可以接收由分布式计算设备执行的联合学习的结果。联合学习可以训练深度学习模型。

    推理时对已训练模型的对抗性后门攻击的检测

    公开(公告)号:CN112131568A

    公开(公告)日:2020-12-25

    申请号:CN202010552253.5

    申请日:2020-06-17

    Abstract: 本发明涉及推理时对已训练模型的对抗性后门攻击的检测。提供了有助于在推理时检测对已训练模型的对抗性后门攻击的系统、计算机实现的方法和计算机程序产品。根据一个实施例,系统可以包括:存储计算机可执行组件的存储器;以及执行存储在所述存储器中的所述计算机可执行组件的处理器。所述计算机可执行组件可以包括日志组件,记录由已训练模型基于推理请求生成的预测和相应激活值。所述计算机可执行组件可以进一步包括分析组件,在推理时使用模型以基于所述预测和所述相应激活值来检测后门触发请求。在一些实施例中,所述日志组件记录来自所述已训练模型的一个或多个层的所述预测和所述相应激活值。

Patent Agency Ranking