人工智能模型的个体公平性度量方法和装置

    公开(公告)号:CN118193995A

    公开(公告)日:2024-06-14

    申请号:CN202410323557.2

    申请日:2024-03-20

    Abstract: 本发明提出一种人工智能模型的个体公平性度量方法,包括:根据人工智能模型的数据的输入数据范围,构建人工智能模型的输入样本集合;从输入样本集合中选择样本构成样本对,计算样本对中两样本间的样本相似性,将样本对中样本分别输入人工智能模型,得到样本对经过人工智能模型处理的结果对,计算结果对中结果间的结果相似性,判断结果相似性和样本相似性的差异绝对值是否低于阈值,若是则为样本对分配代表公平对待的公平性度量结果,否则为样本对分配代表不公平对待的公平性度量结果;重复多次公平性确定步骤,得到公平性报告,公平性报告包含多个样本对及各样本对的公平性度量结果。本发明可揭示和证明人工智能模型算法中存在的个体不公平现象。

    基于模拟数据投毒攻击的推荐系统安全性测试方法及系统

    公开(公告)号:CN117668857A

    公开(公告)日:2024-03-08

    申请号:CN202311675503.4

    申请日:2023-12-07

    Abstract: 本发明提出一种基于模拟数据投毒攻击的推荐系统安全性测试方法和系统。通过梯度传递技术可以加速替代推荐系统的训练过程,以在有限时间内得到更准确的替代模型。梯度传递技术可以增强现有模拟攻击样本的准确性。通过加速替代模型训练得到更准确的替代模型,可以从替代模型中获得更好的优化指导,从而增强现有模拟攻击样本的准确性。梯度传递可以广泛增强基于替代系统的攻击方法,包括大部分现有的推荐系统模拟投毒攻击,这为后续的研发提供了基础。同时,也可以帮助发现了推荐系统的弱点,为设计更可靠的防御方法提供启示。

Patent Agency Ranking