-
公开(公告)号:CN117478325A
公开(公告)日:2024-01-30
申请号:CN202311590000.7
申请日:2023-11-27
Applicant: 泉城省实验室
IPC: H04L9/08
Abstract: 本发明涉及一种支持双匹配策略的比特串隐私比较方法与系统,属于数据隐私保护技术领域。包括:比特串份额编排:服务器针对两种匹配策略分配两个秘密,生成两组对应的随机数份额,并编排随机数份额所在位置;不经意传输:服务器和用户执行不经意传输协议,执行过程按位进行,服务器输入编排后的随机数份额二元组,获得编排后的随机数份额二元组中的一个;模式比较:用户获得全部的秘密份额并调用秘密恢复算法,通过对比恢复出的秘密结果,获得两个字符串的匹配结果。本发明可以同时满足两类匹配策略,即允许User能够判定Server持有的比特串与自己持有的比特串是相同还是完全相反。
-
公开(公告)号:CN116304238A
公开(公告)日:2023-06-23
申请号:CN202310340365.8
申请日:2023-03-29
Applicant: 泉城省实验室
IPC: G06F16/9035 , G06F17/16
Abstract: 本发明公开了一种基于Feistel结构的布谷鸟过滤器及其数据处理方法,涉及布谷鸟过滤器技术领域。布谷鸟过滤器包括若干个桶,每个桶包括若干个槽,设置由标记位组成的标记位矩阵,槽与标记位存在一一对应关系;所述槽中存放指纹,标记位矩阵对指纹对应元素的候选桶进行标识;根据待操作元素计算对应的标签,根据标签利用Feistel结构计算指纹和候选桶。本发明除了在布谷鸟过滤器构造过程中设置标记位矩阵外,还基于Feistel结构改进了指纹和候选桶的计算方法,优化了插入、查找和删除算法。能够在查找过程中能隐式地对比候选桶的值,从而在不增加存储空间前提下实现了假阳率的大幅降低。
-
公开(公告)号:CN116132017A
公开(公告)日:2023-05-16
申请号:CN202211434319.6
申请日:2022-11-16
Applicant: 泉城省实验室
Abstract: 本发明公开了隐私保护机器学习推理加速的方法及系统,SGX接收机器学习过程中的待推理数据,判断待推理数据是线性还是非线性,如果是非线性,则在SGX中进行非线性运算;如果是线性,SGX将线性数据部分进行加密,并将加密处理后的线性数据部分发送给FPGA;FPGA对加密处理后的线性数据部分进行解密处理,并将解密后的线性数据部分进行线性运算;线性运算结束后,FPGA将线性运算结果进行加密,并将加密的密文返回给SGX;SGX对接收到的密文进行解密后,再对解密后的数据进行非线性运算,至此完成机器学习的一次推理过程,继续完成机器学习的后续线性数据部分的处理,直至机器学习的所有待推理数据均被处理完毕。
-
公开(公告)号:CN115189905A
公开(公告)日:2022-10-14
申请号:CN202210499337.6
申请日:2022-05-09
Abstract: 本发明公开了网络通信与安全管控一体机及其工作方法,本地校验组件,接收流入和流出一体机的数据,并将数据转发给安全组件,安全组件对数据进行处理,随后路由组件将数据进行转发;蜜罐沙箱联动组件的蜜罐监听通信接口并捕获恶意代码;将恶意代码与蜜罐沙箱联动组件进行交互;蜜罐沙箱联动组件将流量交由沙箱分析后发送至物联网关组件进行处理,并将物联网关组件的返回信息处理后返回给攻击方;蜜罐沙箱联动组件对捕获的恶意代码进行分析,提取软件行为以及网络行为后,将软件行为以及网络行为作为恶意代码的标签对卷积神经网络进行训练;安全组件对训练后网络进行检查和验收,并通过训练后的卷积神经网络对经过一体机的通信进行检查和监控。
-
公开(公告)号:CN119051862B
公开(公告)日:2025-03-21
申请号:CN202411546477.X
申请日:2024-11-01
Applicant: 泉城省实验室
Abstract: 本发明涉及一种隐私保护的基因序列比较和配对方法与系统,属于信息安全技术领域。包括:序列份额编排:服务器指定两个秘密并生成对应的秘密份额集合,随后服务器根据所持有基因序列中的每个碱基及配对碱基来编排份额的所在位置;不经意传输:服务器和用户执行不经意传输协议,即OT协议;执行过程按碱基序列逐个进行,服务器输入编排后的份额四元组,用户根据持有基因序列的碱基获得四元组中的一个;模式匹配:用户获得全部的秘密份额并调用秘密恢复算法,通过对比恢复出秘密结果,获得匹配结果。本发发明利用碱基序列的配对规律,方法可同时实现相同基因和配对基因的隐私比较,提升了隐私计算协议的效率。
-
公开(公告)号:CN117494794B
公开(公告)日:2025-01-24
申请号:CN202311529748.6
申请日:2023-11-16
Applicant: 泉城省实验室
IPC: G06N3/098 , H04L67/568 , H04L67/01 , H04L9/40 , H04L9/08
Abstract: 本发明涉及一种基于带错误学习的异步联邦学习安全聚合方法,属于信息安全技术领域,包括:客户端下载全局模型,用于本地训练,随机选取秘密向量和噪声,并通过秘密向量和噪声将本地训练好的梯度掩盖,上传掩码梯度;服务器接收客户端上传的掩码梯度,将其放入缓冲区K,当K满时,准备聚合K中客户端的秘密向量,并将K中的客户端广播;K中的客户端执行安全聚合,得到聚合后的秘密向量ssum,并将参与安全聚合过程的客户端集合传给服务器;服务器对客户端集合中的客户端上传的掩码梯度求和,并且通过ssum删除掩码梯度的掩码,得到全局模型的更新梯度。本发明是一种异步安全聚合的新颖方法,且降低了安全聚合过程中的计算和通信开销。
-
公开(公告)号:CN118940865A
公开(公告)日:2024-11-12
申请号:CN202411419064.5
申请日:2024-10-12
Applicant: 泉城省实验室
Abstract: 本发明涉及基于委员会共识的鲁棒高效去中心化联邦学习方法及系统,属于联邦学习技术领域,包括:1)委员会成员选举;2)使用全局模型进行本地模型训练;3)模型验证,对通过验证的训练者进行打分;4)当有足够多的连续更新区块时,智能合约将自动调用,对区块链上的模型更新进行聚合,生成新的全局模型,并计算每个参与者在本轮训练中的贡献度,根据贡献度选择出下一轮训练中的委员会成员;5)各参与者下载最新的区块,将新的全局模型作为下一轮训练中的初始模型;上述操作重复进行,直至模型收敛。本发明有效解决因中心服务器的存在所导致的单点故障以及恶意服务器作恶问题的同时,提高了模型聚合的准确性、速度和效率。
-
公开(公告)号:CN117478325B
公开(公告)日:2024-09-27
申请号:CN202311590000.7
申请日:2023-11-27
Applicant: 泉城省实验室
IPC: H04L9/08
Abstract: 本发明涉及一种支持双匹配策略的比特串隐私比较方法与系统,属于数据隐私保护技术领域。包括:比特串份额编排:服务器针对两种匹配策略分配两个秘密,生成两组对应的随机数份额,并编排随机数份额所在位置;不经意传输:服务器和用户执行不经意传输协议,执行过程按位进行,服务器输入编排后的随机数份额二元组,获得编排后的随机数份额二元组中的一个;模式比较:用户获得全部的秘密份额并调用秘密恢复算法,通过对比恢复出的秘密结果,获得两个字符串的匹配结果。本发明可以同时满足两类匹配策略,即允许User能够判定Server持有的比特串与自己持有的比特串是相同还是完全相反。
-
公开(公告)号:CN117371025B
公开(公告)日:2024-04-16
申请号:CN202311204903.7
申请日:2023-09-18
Applicant: 泉城省实验室
IPC: G06F21/62 , H04L9/00 , G06N20/00 , H04L67/104
Abstract: 本发明公开一种去中心化机器学习模型训练方法及系统,包括:将参与方进行分组;重构参与方接收区块链下发的全局模型,并发送至组内的普通参与方;普通参与方以全局模型作为初始模型进行本地模型的训练,将本地模型拆分成份额的形式在组内进行分发,各普通参与方接收到组内其他普通参与方的模型份额后进行聚合,将聚合结果发送至重构参与方;重构参与方将组内的聚合结果进行重构,将得到的小组模型上传到区块链,区块链对小组模型再次进行聚合,将当前轮次的全局模型下发至重构参与方作为下一轮训练的初始模型。保证各参与方的敏感数据不出本地,实现更高层次的敏感数据隐私保护。
-
公开(公告)号:CN117668916A
公开(公告)日:2024-03-08
申请号:CN202311737704.2
申请日:2023-12-18
Applicant: 泉城省实验室
IPC: G06F21/62
Abstract: 本发明涉及一种基于函数秘密分享的多方隐私保护集合求交方法及系统,运行于多方参与系统,多方参与系统包括参与方P1及除参与方P1外的m‑1个参与方,除参与方P1外的m‑1个参与方前后依次构成一个环;包括:除参与方P1外的m‑1个参与方执行如下操作:参与方Pi在接收到参与方Pi‑1发送过来的函数元组后,与参与方P1执行Ring‑OLE协议,然后发送自身的函数秘密分享后的函数份额给下一个参与方Pi+1;参与方P1负责累加并对累加后的多形式进行交集计算。本发明运行结束后只有参与方P1可以拿到集合的交集,其他参与方无法获取任何信息。本发明支持并行计算,在通信和计算成本上有一定竞争力。
-
-
-
-
-
-
-
-
-