一种提高图数据上鲁棒性的对抗免疫方法

    公开(公告)号:CN113762465A

    公开(公告)日:2021-12-07

    申请号:CN202110879783.5

    申请日:2021-08-02

    Abstract: 本发明提供一种保护图数据的方法,所述图数据包括节点和节点之间的边,所述节点具有分类标签与属性,所述方法包括:步骤100:从图数据中选择关键节点对;步骤200:对所选择的关键节点对进行免疫保护,所述免疫保护包括:保护同一类别下属性高度相似的节点对之间的连边,以及保持不同类下属性相似度低的节点对间没有连边。本发明首次提出面向数据的对抗免疫方法,不需要影响GNN模型的训练过程,也不需要任何优化过程,节省了优化所需的大量算力和时间。对抗免疫直接为关键节点对“接种疫苗”,保护它们免受攻击损害,从而提高整个图的鲁棒性,同时保证了GNN在干净图上的性能。

    基于位置学习图卷积神经网络的图分类方法及系统

    公开(公告)号:CN113128587A

    公开(公告)日:2021-07-16

    申请号:CN202110413687.1

    申请日:2021-04-16

    Abstract: 本发明提出一种基于位置学习图卷积神经网络的图分类方法和系统,本发明目的是解决上述现有图分类方法启发式地对图中节点进行排序、选择的过程导致重要结构丢失和提取不到启发式规则下的关键结构等问题。具体来说,本发明提出了一种基于位置学习卷积神经网络的图分类方法,核心思想是通过为图上每个节点学习对应的位置,进而得到整个图的表示。这种端到端的建模方式有效避免了对节点进行排序、选择和丢弃的过程,不仅提升了图分类的准确率,而且保证了对关键结构的有效提取。

    网络信息传播影响力度量方法、系统及影响力最大化方法

    公开(公告)号:CN109741198B

    公开(公告)日:2021-03-05

    申请号:CN201811434864.9

    申请日:2018-11-28

    Abstract: 本发明涉及一种网络信息传播影响力度量方法、系统,包括:根据社交网络中消息传播的历史传播数据,构建节点和传播源的激活对;将社交网络中的用户作为节点,将给定消息的传播数据中参与时间为0的节点作为给定消息的传播源,通过聚合函数将传播源对节点的影响力进行聚合后通过影响力边际递减函数,得到节点在传播源下被激活的概率;以历史传播数据为训练数据,以概率的对数似然最大作为目标,对所有激活对使用随机梯度下降进行参数学习,得到节点间影响力,以得到传播源集合的影响力度量。本发明提出的基于数据驱动的影响力最大化方法直接基于本发明学习得到的影响力度量,对节点的边际效应进行估计,以高效地进行影响力最大化的节点集合选择。

    网络信息传播影响力度量方法、系统及影响力最大化方法

    公开(公告)号:CN109741198A

    公开(公告)日:2019-05-10

    申请号:CN201811434864.9

    申请日:2018-11-28

    Abstract: 本发明涉及一种网络信息传播影响力度量方法、系统,包括:根据社交网络中消息传播的历史传播数据,构建节点和传播源的激活对;将社交网络中的用户作为节点,将给定消息的传播数据中参与时间为0的节点作为给定消息的传播源,通过聚合函数将传播源对节点的影响力进行聚合后通过影响力边际递减函数,得到节点在传播源下被激活的概率;以历史传播数据为训练数据,以概率的对数似然最大作为目标,对所有激活对使用随机梯度下降进行参数学习,得到节点间影响力,以得到传播源集合的影响力度量。本发明提出的基于数据驱动的影响力最大化方法直接基于本发明学习得到的影响力度量,对节点的边际效应进行估计,以高效地进行影响力最大化的节点集合选择。

    基于模拟数据投毒攻击的推荐系统安全性测试方法及系统

    公开(公告)号:CN117668857A

    公开(公告)日:2024-03-08

    申请号:CN202311675503.4

    申请日:2023-12-07

    Abstract: 本发明提出一种基于模拟数据投毒攻击的推荐系统安全性测试方法和系统。通过梯度传递技术可以加速替代推荐系统的训练过程,以在有限时间内得到更准确的替代模型。梯度传递技术可以增强现有模拟攻击样本的准确性。通过加速替代模型训练得到更准确的替代模型,可以从替代模型中获得更好的优化指导,从而增强现有模拟攻击样本的准确性。梯度传递可以广泛增强基于替代系统的攻击方法,包括大部分现有的推荐系统模拟投毒攻击,这为后续的研发提供了基础。同时,也可以帮助发现了推荐系统的弱点,为设计更可靠的防御方法提供启示。

    基于图表示学习的身份保持对抗训练方法、装置、介质

    公开(公告)号:CN114418060A

    公开(公告)日:2022-04-29

    申请号:CN202111588857.6

    申请日:2021-12-23

    Abstract: 本发明提供了一种基于图表示学习的身份保持对抗训练方法、装置、介质,所述方法包括:获取训练场景的图数据,定义图数据的每一个节点为用于表征训练场景的一个原样本,定义原样本的样本身份信息;生成每一个原样本对应的对抗样本;通过为对抗样本添加身份保持约束,将对抗样本保持原样本的样本身份信息;将对抗样本作为第一输入变量,输入至初始图表示学习模型,执行身份保持对抗训练;更新初始图表示学习模型,得到目标图表示学习模型,利用目标图表示学习模型预测训练场景中所述原样本在不同图挖掘任务下的输出。该方法将对抗样本与原样本保持相同的样本身份信息,提升了图表示学习在图结构数据分析中的精度,具有一定的普适性。

    基于神经网络表示的神经网络模型后门检测方法及装置

    公开(公告)号:CN118194305A

    公开(公告)日:2024-06-14

    申请号:CN202410459109.5

    申请日:2024-04-16

    Abstract: 本发明提出一种基于神经网络表示的神经网络模型后门检测方法和装置,包括:根据神经网络模型中每个操作单元的操作类型和在计算流图中的位置,提取该神经网络模型的结构特征;根据神经网络模型中每个操作单元的参数矩阵,提取该神经网络模型的参数特征;结合该结构特征和该参数特征,得到该神经网络模型的表示特征;使用该表示特征训练后门检测器,将待后门检测的神经网络模型的表示特征输入训练完成后的后门检测器,得到其是否具有后门的后门检测结果。本发明可应用于图像识别领域,以提高图像分类模型的分类准确性和安全性,避免图像分类模型对特殊图像给出错误图像分类结果。

    人工智能模型的个体公平性度量方法和装置

    公开(公告)号:CN118193995A

    公开(公告)日:2024-06-14

    申请号:CN202410323557.2

    申请日:2024-03-20

    Abstract: 本发明提出一种人工智能模型的个体公平性度量方法,包括:根据人工智能模型的数据的输入数据范围,构建人工智能模型的输入样本集合;从输入样本集合中选择样本构成样本对,计算样本对中两样本间的样本相似性,将样本对中样本分别输入人工智能模型,得到样本对经过人工智能模型处理的结果对,计算结果对中结果间的结果相似性,判断结果相似性和样本相似性的差异绝对值是否低于阈值,若是则为样本对分配代表公平对待的公平性度量结果,否则为样本对分配代表不公平对待的公平性度量结果;重复多次公平性确定步骤,得到公平性报告,公平性报告包含多个样本对及各样本对的公平性度量结果。本发明可揭示和证明人工智能模型算法中存在的个体不公平现象。

Patent Agency Ranking