-
公开(公告)号:CN120011053A
公开(公告)日:2025-05-16
申请号:CN202510076913.X
申请日:2025-01-17
Applicant: 支付宝(杭州)信息技术有限公司 , 浙江大学
Abstract: 本说明书实施例提供了一种大模型的工具调用执行方法及装置。当接收到输入大模型的用户查询时,可以将用户查询和所有的工具输入大模型,通过大模型输出用于确定用户查询的应答而需要执行的一系列工具调用。接着,确定多个工具调用中被并行调度的若干工具调用,其中包括计算资源非密集型的第一工具调用和计算资源密集型的第二工具调用。在向并行调度的多个工具调用分配计算资源时,可以将可用计算资源优先分配给所述第一工具调用,利用分配的计算资源执行第一工具调用;将剩余可用计算资源分配给第二工具调用,利用分配的计算资源执行第二工具调用。当工具调用的执行过程会产生隐私数据时,可以对工具调用的执行过程进行隐私保护。
-
公开(公告)号:CN115033866B
公开(公告)日:2024-09-10
申请号:CN202210552736.4
申请日:2022-05-19
Applicant: 浙江大学
Abstract: 本发明公开了一种基于依赖保证机制的操作系统内存管理机制验证方法。该方法将操作系统建模为一个并发事件模型,并利用并行程序验证框架提供的程序语义和记号建模内存申请和释放函数。设计内存安全并将其转化为程序验证框架语义下的安全规约,并依据安全规约,设计相应的验证条件,并利用行程序验证框架的依赖‑保证证明系统,自动检查验证条件的相容性,最后通过交互式定理证明器检查证明的正确性。本发明利用形式化验证和机器证明技术,严格地验证了内存管理系统的安全性,保证了操作系统安全可靠运行,防患于未然。
-
公开(公告)号:CN114254275A
公开(公告)日:2022-03-29
申请号:CN202111358058.X
申请日:2021-11-16
Applicant: 浙江大学
IPC: G06F21/16
Abstract: 本发明公开了一种基于对抗样本指纹的黑盒深度学习模型版权保护方法,包括:设计深度学习模型差异度衡量指标,实现高效的种子选取策略及对抗样本指纹生成方法,并在此基础上对可疑模型进行相似度测量(仅需模型最后一层的输出,无需白盒权限),最后对可疑模型是否发生侵权行为进行判断。本方法基于深度学习模型的公共属性(鲁棒性),能够自动地为原模型生成指纹集,并在多种模型窃取场景下有效;不受数据领域及模型结构的限制,具备良好的通用性和可拓展性。相比于传统的模型水印嵌入法,本方法无需介入深度学习模型的训练过程,避免了繁琐耗时的参数调整过程以及嵌入水印造成的精确度损失,使得对深度学习模型的版权验证及保护变得简单高效。
-
公开(公告)号:CN119996090A
公开(公告)日:2025-05-13
申请号:CN202510473963.1
申请日:2025-04-16
Applicant: 浙江大学
Abstract: 本发明公开了一种基于量化语义规约的区块链攻击的检测方法和装置,该方法包括:定义以太坊攻击建模的形式化规约的MFTOL语言的子集,定义了规约中包含的逻辑运算符和最小原子公式;为最小原子公式中的基本事件、高级事件以及参数比较运算符附加自适应的权重,从而量化每个最小原子公式对推断检测结果的重要性程度;为提出的MFOTL语言子集中的逻辑运算符定义量化公式,形成完整的攻击规约的量化计算方法;根据量化的攻击规约计算以太坊交易语义日志中量化结果最大值,确定是否存在目标交易被用于预定义的攻击的风险。与定性的规约检测结果相比,本发明提出的定量的以太坊攻击规约能覆盖更多的攻击交易,并具备检测到未遂攻击的能力。
-
公开(公告)号:CN117272314A
公开(公告)日:2023-12-22
申请号:CN202311129211.0
申请日:2023-09-04
Applicant: 浙江大学
Abstract: 本发明公开了一种基于深度学习的模糊测试变异策略更新方法及装置。本发明利用奖励值计算出关键的未覆盖节点;利用注意力机制进行多模信息融合,预测种子文件、变异操作能否触发未覆盖的程序块,并生成热度图;根据热度图更新变异策略,引导模糊测试提高覆盖率,发现更多漏洞。本发明利用深度学习技术来提取程序执行与输入分布之间关系,使模糊测试突破了运行时的瓶颈期,保持高效运行,并且不断更新,从而有效地挖掘漏洞。
-
公开(公告)号:CN117034268A
公开(公告)日:2023-11-10
申请号:CN202311050035.1
申请日:2023-08-18
Applicant: 浙江大学
IPC: G06F21/56 , G06F18/214 , G06F18/241 , G06F18/23
Abstract: 本发明公开了一种基于动态原型的安卓小样本恶意软件家族检测方法及装置,解决了现有安卓软件家族检测方法无法有效地检测小样本恶意软件家族的问题。该方法首先将安卓恶意软件样本通过静、动态分析提取相应特征组成特征向量,然后借助训练集基于对比学习训练特征提取网络,将原始高维特征向量映射到低维特征空间内。在特征空间内,对于每个恶意家族通过聚类生成多个聚簇中心,然后基于每个聚簇中心与待检测样本的相似度加权生成代表该家族的动态原型向量,最终基于度量完成检测分类。本发明能够在恶意家族样本极其稀缺的情况下准确分类,有效解决了新型安卓恶意软件家族发现初期样本稀少无法运用传统机器学习模型进行检测分类的问题。
-
公开(公告)号:CN115168210B
公开(公告)日:2023-06-23
申请号:CN202210826339.1
申请日:2022-07-13
Applicant: 浙江大学
IPC: G06F11/36 , G06F18/214 , G06N20/00
Abstract: 本发明公开了一种联邦学习中在黑盒场景下基于对抗样本的鲁棒水印遗忘验证方法,通过在遗忘用户本地数据集中随机筛选部分样本,进行数据增广,利用对抗样本生成方法在增广后的数据上微调生成对抗样本。将本地模型在这些对抗样本和原有的本地数据上进行对抗训练,生成更加鲁棒的嵌入水印后的本地模型上传给中心服务器聚合。遗忘用户通过黑盒访问接下来若干个周期的全局模型,根据全局模型在这些对抗样本上的输出提取水印,验证遗忘情况。本发明方法具有鲁棒性强,验证效果好,对于数据分布依赖小,黑盒访问全局模型避免公平性问题,对于遗忘验证结果提供理论保证等优点,可以有效鉴别遗忘与否,能够广泛应用和部署在各种需要进行遗忘验证的场景中。
-
公开(公告)号:CN119917068A
公开(公告)日:2025-05-02
申请号:CN202411975582.5
申请日:2024-12-30
Applicant: 浙江大学
IPC: G06F8/10 , G06F8/41 , G06F40/205 , G06F40/30 , G06F8/70
Abstract: 本发明涉及一种大语言模型辅助的安全协议符号模型生成方法及装置,该方法包括以下步骤:通过语义解析器将自然语言文档解析成以领域特定语言表征的解析结果,并将所述解析结果作为中间表示,其中,所述语义解析器基于大型语言模型驱动的组合范畴语法构建;通过静态分析和允许用户交互,修复所述中间表示中存在的问题,以在形式上规范化所述中间表示;通过转换器将在形式上规范化的所述中间表示转换为Sapic+规范;通过编译器将规范化的Sapic+进程语言编译为由验证工具直接接受的符号模型;证明不同模型之间变换正确性。本发明提出能够从自然语言描述中提取协议符号模型的方法,能基于该方法实现了一个用户使用友好的合成工具。
-
公开(公告)号:CN117933322A
公开(公告)日:2024-04-26
申请号:CN202311835375.5
申请日:2023-12-28
Applicant: 浙江大学杭州国际科创中心
IPC: G06N3/0499 , G06N3/096 , G06F18/23213 , G06F18/241
Abstract: 本发明公开一种基于网络补丁的神经网络遗忘学习方法,包括:S1、获取原始模型的原始数据集,并通过随机采样构建对应的遗忘数据集;S2、基于所述遗忘数据构建对应的补丁网络;S3、基于所述补丁网络与所述原始模型,合成对应的遗忘模型;S4、将多个中心数据点输入至原始模型和遗忘模型中,以获取相似数据点集;S5、以所述相似数据点集替换为新的遗忘数据集,以S3构建获得的遗忘模型作为下一轮的原始模型;S6、重复S2至S5,直至S4中的相似数据点集为空集,以获得与原始模型性能一致的替换模型。本发明还提供了一种神经网络遗忘学习装置。本发明提供的方法能减轻剩余数据对模型性能的影响,以满足数据持有者和模型所有者的需求。
-
公开(公告)号:CN115098363A
公开(公告)日:2022-09-23
申请号:CN202210691164.8
申请日:2022-06-17
Applicant: 浙江大学
IPC: G06F11/36
Abstract: 本发明公开了一种基于形式化方法的ST语言编译器测试工具,该工具通过形式化方法为ST语言的执行制定了基准,不仅可以指导ST编译器的测试和实现,还可以为ST程序本身的分析提供支持。该测试工具包括四个部分:ST语言的形式化定义模块、程序模糊测试模块、程序变异模块以及编译器测试模块。该工具基于IEC 61131‑6标准以及多家厂商对ST语言的具体实现梳理ST语言的关键组成,形式化地制定相应的语法和语义关系作为语言的基准,模拟ST语言的具体执行过程,然后对ST程序及其输入进行有效变异,并进一步调用编译器测试模块实现对编译器的有效测试。
-
-
-
-
-
-
-
-
-