-
公开(公告)号:CN119622749A
公开(公告)日:2025-03-14
申请号:CN202510156422.6
申请日:2025-02-12
Applicant: 之江实验室
Abstract: 本说明书公开了一种红队测试指令生成方法、装置、存储介质。在此方法中,可以借助大型语言模型的强大逻辑推理与内容生成能力,基于不同的目标进化策略以及少量的候选测试指令,从广度方面或从深度方面批量生成多样化的能够生成不同领域范围下能够覆盖更多潜在威胁场景的红队测试指令,以减少对安全专家手工编写测试指令的需求,极大提高了测试效率,并降低测试成本。
-
公开(公告)号:CN117576522A
公开(公告)日:2024-02-20
申请号:CN202410076456.X
申请日:2024-01-18
Applicant: 之江实验室
IPC: G06V10/774
Abstract: 本说明书公开了一种基于拟态结构动态防御的模型训练方法及装置。所述任务执行方法包括:获取预训练模型,将训练预训练模型所使用的第一图像输入到预训练模型中,得到第一图像对应的识别结果。根据第一图像对应的识别结果以及第一图像对应的实际标签,确定出第二图像。将第二图像输入到预训练模型中,以通过预训练模型中的权重网络层,确定预训练模型中设置的各子识别网络对应的权重,以及通过每个子识别网络,分别对第二图像进行识别,得到各识别结果,并根据确定出的各子识别网络对应的权重,对各识别结果进行加权,得到最终识别结果,以最小化最终识别结果与实际标签之间的偏差为优化目标,对预训练模型进行训练。
-
公开(公告)号:CN117061254A
公开(公告)日:2023-11-14
申请号:CN202311319155.7
申请日:2023-10-12
Applicant: 之江实验室
IPC: H04L9/40 , H04L67/1396
Abstract: 本申请涉及一种异常流量检测方法、装置和计算机设备。所述方法包括:获取待检测流量数据,其中,待检测流量数据包括用户数据以及待检测流量信息;基于待检测流量信息进行特征提取处理,得到哈希结果,并基于哈希结果与预设的基因库进行匹配处理,得到流量检测结果;基于预设的用户行为模型中的用户数据统计结果对用户数据进行检测,得到用户行为检测结果;基于流量检测结果以及用户行为检测结果,得到针对待检测流量数据的异常检测结果。采用本方法能够解决现有技术中针对异常流量检测灵活度以及效率较低的问题。
-
公开(公告)号:CN116630480B
公开(公告)日:2023-09-26
申请号:CN202310862442.6
申请日:2023-07-14
Applicant: 之江实验室
Abstract: 本发明涉及交互式文本驱动图像编辑的方法、装置和电子设备,方法包括获取图像样本并判断图像样本是否合规;将图像样本输入到图像逆向模型得到原始图像逆向特征;获取文本样本并判断文本样本是否合规;将文本样本输入到文本编码器中得到文本特征;将原始图像逆向特征和文本特征输入到多模态融合模型得到编辑图像特征;将编辑图像特征输入到图像生成器得到编辑后图像;询问用户是否继续输入文本样本,若继续,继续获取文本样本;否则输出最终编辑后图像。与现有技术相比,本发明放开了传统编辑场景对于输入文本内容的限制,可实现针对于同一张原始图像进行多次文本输入,渐进式修改对应图像区域,提高图像编辑方法灵活性。
-
公开(公告)号:CN116796829A
公开(公告)日:2023-09-22
申请号:CN202310945896.X
申请日:2023-07-31
Applicant: 之江实验室
IPC: G06N3/094 , G06N3/0985 , G06N3/0475 , G06N3/045 , G06T3/00 , G06V40/16 , G06V10/74 , G06V10/764 , G06V10/774 , G06V10/82 , G06F40/30
Abstract: 本发明涉及一种文本驱动人脸编辑的对抗攻击方法、装置和介质,方法包括获取图像样本和文本样本,图像样本包括原始图像和目标图像;基于文本样本,确定固定语义映射模型;将原始图像样本输入到图像逆向模型得到原始图像逆向特征;然后输入到固定语义映射模型,其输出与原始图像逆向特征加权组合得到编辑后图像逆向特征,加权因子为可优化超参数;根据编辑后图像逆向特征生成编辑后生成图像;判断是否收敛,并对加权因子收敛迭代优化,得到最终编辑后图像逆向特征从而生成最终编辑后生成图像。与现有技术相比,本发明具有保证了对抗样本的攻击有效性,增强了对抗干扰的不可见性,提高了对抗样本的图像质量等优点。
-
公开(公告)号:CN116523032A
公开(公告)日:2023-08-01
申请号:CN202310235411.8
申请日:2023-03-13
Applicant: 之江实验室
IPC: G06N3/094 , G06N3/096 , G06V30/19 , G06N3/0464
Abstract: 本发明公开了一种图像文本双端迁移攻击方法、装置和介质,该方法的步骤包括分析攻击目标模型、本地替代模型训练、对抗样本生成和对抗样本迁移,其中,分析攻击目标模型,即对比语言图像预训练模型,其可以接受图像与文本两端输入,之后根据输出向量的相似度进行结果预测;本地替代模型训练为根据目标模型的骨干网络训练替代模型,用于迁移攻击;对抗样本生成为对本地替代模型的进行攻击,进而获得图像和文本的对抗样本;对抗样本迁移为对抗样本输入对比语言图像预训练模型,最终导致网络无法正常工作,网络预测分类错误。本发明从图像和文本两个输入端口进行攻击,同时在本地训练相关模型进行迁移攻击,大幅提高了攻击成功率。
-
公开(公告)号:CN117527449A
公开(公告)日:2024-02-06
申请号:CN202410019107.4
申请日:2024-01-05
Applicant: 之江实验室
IPC: H04L9/40 , G06N3/0442 , G06N3/0455 , G06N3/0464 , G06N3/08
Abstract: 本说明书公开了一种入侵检测方法、装置、电子设备以及存储介质,确定目标流量数据对应的目标特征,并通过预先基于各已知异常类型分别对应的样本流量数据的样本特征训练得到的检测模型的编码层,确定该目标特征的编码结果,从预设的各已知异常类型中,确定该目标特征对应的目标类型。再通过该检测模型的解码层,确定该目标特征的解码结果。最后根据该解码结果和该目标特征之间的差距,来确定该目标流量数据的异常检测结果。本方法,在该目标流量属于新型网络攻击行为所对应的异常类型时,通过该编码‑解码器结构的检测模型无法将该目标流量的特征进行准确还原,因此可准确识别出新型网络攻击行为,保证了检测效率。
-
公开(公告)号:CN115860281B
公开(公告)日:2023-07-07
申请号:CN202310170296.0
申请日:2023-02-27
Applicant: 之江实验室
IPC: G06Q10/04 , G06Q50/06 , G06N3/0442 , G06N3/045 , G06F18/211 , H02J3/00
Abstract: 本发明公开了一种基于跨实体注意力的能源系统多实体负载预测方法和装置,该方法包括以下步骤:首先对数据预处理,采用特征变量选择网络预测各个实体对特征的依赖性,并通过长短期记忆网络提取时间依赖信息;然后对实体编码;其次使用通过键值查询不同实体间的注意力,以对实体间的相互作用进行编码计算跨实体注意力;再将特征编码输出为负载预测值;通过以上步骤对负载预测网络模型进行训练学习,以获取最终的负载预测网络模型;最后将新的输入特征变量输入负载预测网络模型,即可获取负载预测值。本发明能够高效地对实体的时间特征进行建模并模拟实体间的相关性,量化一个时间窗口内多个实体之间的相关性,大幅提高各个实体负载预测的准确度。
-
公开(公告)号:CN116227474A
公开(公告)日:2023-06-06
申请号:CN202310514835.8
申请日:2023-05-09
Applicant: 之江实验室
IPC: G06F40/247 , G06N20/00
Abstract: 本说明书公开了一种对抗文本的生成方法、装置、存储介质及电子设备,包括:获取用于生成对抗文本的各原始文本,根据预先训练的第一语言模型,确定各原始文本的特征向量,并对各原始文本聚类,得到指定数量的文本簇。然后,从各文本簇中确定代表文本,再确定各代表文本对应的初始对抗文本。然后,根据确定出的代表文本的原始关键词和初始对抗关键词之间的差异,从预设的各思维链提示模板中,确定目标思维链提示模板。之后,根据代表文本和代表文本的初始对抗文本,采用目标思维链提示模板,生成思维链提示文本。将思维链提示文本输入预先训练的第二语言模型,得到目标对抗文本。可以更加灵活地生成对抗文本,减少对抗文本的生成成本。
-
公开(公告)号:CN116089955A
公开(公告)日:2023-05-09
申请号:CN202211528529.1
申请日:2022-12-01
Applicant: 之江实验室
Abstract: 本发明公开了一种基于windows操作系统的系统调用去噪方法及装置,该方法基于提取到的系统调用参数,构造进程‑线程亲子关系图谱和时序图,对线程进行行为分析和过滤,保留在磁盘/内存/注册表/网络层面产生增、删、改行为的线程,并对这些进程产生的系统调用生成了系统调用描述文件。该方法能够有效减少在系统调用分析中原始数据的噪声,同时保留系统调用原有的亲缘和时序关系,使得计算机产生的系统调用能够以文本的形式进行描述和比较。
-
-
-
-
-
-
-
-
-