-
公开(公告)号:CN115311352A
公开(公告)日:2022-11-08
申请号:CN202211015472.5
申请日:2022-08-24
Applicant: 杭州电子科技大学
IPC: G06T7/70 , G06T5/10 , G06N20/20 , G06V10/764 , G06V10/774
Abstract: 本发明提供一种基于集成学习的JPEG图像负载定位方法,具体包括以下步骤:步骤1、收集N幅基于同一嵌入位置密钥并且使用相同DCT域隐写算法嵌入的载密JPEG图像;步骤2、对所有图像进行霍夫曼解码,得到量化的DCT系数矩阵;将每一幅图像中所有系数块相同位置的系数组合,得到共64幅同频子图;步骤3、针对步骤2中同频子图提取8维残差特征;步骤4、针对步骤2中同频子图提取72维SPAM特征;步骤5、将步骤3的8位残差特征向量与步骤4的72维SPAM特征向量拼接成80维特征向量;步骤6、使用堆叠法(Stacking)结合K折交叉验证进行模型融合;使用步骤5中的80维特征向量进行训练得到最终的模型。
-
公开(公告)号:CN114170240A
公开(公告)日:2022-03-11
申请号:CN202111340652.6
申请日:2021-11-12
Applicant: 杭州电子科技大学
Abstract: 本发明公开了基于加权DCT系数残差的JPEG图像负载定位方法。本申请在频域中进行图像负载,假设量化的DCT系数与其在同一子图像中的相邻系数之间的相关性不均匀,具体表现为:高纹理区域的相关性较低,而低纹理区域相关性较高。基于这一特性,本申请自适应地为不同的DCT量化系数分配不同的权重,以提高负载的准确性。通过本申请的自适应计算方法计算权重因子,可以更准确地估计DCT残差,对于基于区域的局部纹理情况下定位精度显著提高。与现有技术相比,能够明显改善负载定位效果,提高隐写分析性能,定位精度较当前主流隐写定位方法得到了很大的提高,对于防止信息隐藏技术的滥用,促进信息隐藏与隐写分析技术的发展具有重大作用。
-
公开(公告)号:CN114493972B
公开(公告)日:2025-03-28
申请号:CN202210110918.6
申请日:2022-01-29
Applicant: 杭州电子科技大学
IPC: G06T1/00 , G06F21/16 , G06N3/045 , G06N3/0475 , G06N3/094
Abstract: 本发明公开了一种对抗式生成网络版权保护方法。本发明步骤:步骤1、收集N张包含指定物体的图片作为水印图像;步骤2、将指定的密钥字符串通过密钥生成函数得到特定长度的水印标签,并将该水印标签作为步骤1收集的水印图像的水印标签;将水印图像和水印标签结合作为触发集;步骤3、将步骤2得到的触发集与训练任务图像一起放入对抗式生成网络中训练,得到带水印的网络模型;步骤4、网络模型所有者持有水印标签,当网络模型版权发生争端时,模型所有者将特定的水印标签输入至生成器中,生成器返回相应的水印图像,与提供的训练水印图像进行比对,完成版权验证。本发明能够在不改变网络本身结构和不影响模型性能的情况下保护模型的版权,丰富了黑盒模型水印的研究。
-
公开(公告)号:CN118865173A
公开(公告)日:2024-10-29
申请号:CN202410919265.5
申请日:2024-07-10
Applicant: 杭州电子科技大学
IPC: G06V20/17 , G06V10/25 , G06V10/44 , G06V10/82 , G06V10/80 , G06N3/045 , G06N3/0464 , G06N3/048 , G06N3/0499 , G06N3/084
Abstract: 本发明公开了一种面向无人机未配准RGB‑T图像的显著目标检测方法,该方法首先获取场景的RGB模态和热红外模态数据,并进行预处理。其次通过骨干网络分别提取RGB模态和热红外模态的n级不同尺度特征,进行模态特征增强。然后将模态特征增强后的RGB模态特征和热红外模态特,进行跨模态特征融合。最后将融合后的特征,进行目标搜索解码,得到显著性检测结果,并以端到端的方式联合训练。本发明能够帮助网络更好地关注重要的特征信息,提高网络在处理图像任务中的性能和准确性。
-
公开(公告)号:CN118264758A
公开(公告)日:2024-06-28
申请号:CN202410332494.7
申请日:2024-03-22
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于真实信道的多级人脸隐私保护方法,包括如下步骤:(1.1)原始图像预处理;(1.2)区域选择;(1.3)DCT系数加密;(1.4)置乱密钥生成;(1.5)DCT系数置乱;(1.6)置乱密钥嵌入;(2.1)获取原始图像与信道后处理图像的图像质量因子与量化表。(2.2)利用原始图像与压缩图像的量化表不同,对步骤(1)得到的保护图像的DCT系数进行处理,得到中间图像。(3.1)中间图像预处理;(3.2)置乱密钥提取;(3.3)辅助信息提取;(3.4)DCT系数逆置乱;(3.5)DCT系数重建(3.6)图像修复:利用滤波器筛选需要修复的点并使用图像修复算法修复噪点,得到修复后的重建图像。该方法通过实现多层隐私保护并在信道重新压缩后可逆重建。
-
-
公开(公告)号:CN119832552A
公开(公告)日:2025-04-15
申请号:CN202510310700.9
申请日:2025-03-17
Applicant: 杭州电子科技大学
IPC: G06V20/80 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/0475 , G06N3/094
Abstract: 本发明公开了一种多专家模型联合决策的人工智能伪造内容检测方法,包括如下步骤:构建并训练通用专家模型、特化专家模型、鲁棒专家模型,所述通用专家模型、特化专家模型、鲁棒专家模型采用ConvNeXt作为主干网络,三种所述专家模型训练时采用交叉熵损失函数作为约束;对于待检测的多媒体内容,将其输入每一类特化专家模型,当某一类特化专家模型检测超过伪造阈值,直接跳转进入置信度计算环节;若是待检测内容通过了全部的特化专家模型检测,则进入通用专家模型检测流程;进入通用专家模型检测,将待检测的内容输入通用专家模型,若达到伪造阈值,则标记后进入置信度计算环节;经过前两类专家模型的检测流程后,进行置信度计算。
-
公开(公告)号:CN119831822A
公开(公告)日:2025-04-15
申请号:CN202510333453.4
申请日:2025-03-20
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种利用物理对抗水印的深度伪造人脸主动防御方法,包括如下步骤:步骤1、获取待保护图像和水抗水印,并指定局部区域掩码;步骤2、利用dlib库从待保护图像中提取面部关键点;步骤3、基于提取的面部关键点和局部区域掩码,将对抗水印对齐至待保护图像的目标区域,通过逐像素乘法运算得到保护图像;步骤4、由待保护图像和保护图像组成样本对,应用一个伪造模型的编码器提取样本对的潜在空间特征;步骤5、多重约束优化水印;步骤6、根据对抗水印对齐的目标区域通过物理手段生成实际的物理水印,并实施。该方法无需逐一对数据进行保护,且经过网络传播后依然能够保持鲁棒性。
-
公开(公告)号:CN118334337A
公开(公告)日:2024-07-12
申请号:CN202410479526.6
申请日:2024-04-22
Applicant: 杭州电子科技大学
IPC: G06V10/26 , G06V10/764 , G06V10/82 , G06N3/0455 , G06N3/0475 , G06N3/084 , G06N3/088 , G06N3/0464
Abstract: 本发明公开了一种基于风格提取和对齐的无监督域自适应医学语义分割方法,包括如下步骤:步骤1、获取医学图像数据集;步骤2、构建风格提取和对齐网络模型;步骤3、对风格提取和对齐网络模型进行训练;步骤4、读取风格提取和对齐网络模型中训练好的特征编码器S、分类器C1和分类器C2构成生成器G,读入单张医疗图像I,并将单张医疗图像I输入生成器G中进行前向推理,得医学图像I得语义分割结果P。该方法无需额外参数及额外的标签,并能有效泛化语义分割模型的分割能力,从而克服了现有医学语义分割处理方法标注成本高昂及泛化能力不足的问题。
-
公开(公告)号:CN118314326A
公开(公告)日:2024-07-09
申请号:CN202410483252.8
申请日:2024-04-22
Applicant: 杭州电子科技大学
IPC: G06V10/25 , G06V10/82 , G06V10/764 , G06V10/80 , G06N3/0455 , G06N3/0464 , G16H50/20
Abstract: 本发明公开了一种骶髂关节磁共振影像智能阅片方法,其特征在于,包括如下步骤:步骤1、获取医学图像数据集;步骤2、构建ROI自动分割模型,所述ROI自动分割模型为UNet3D网络;步骤3、将医学图像作为输入,通过ROI自动分割模型自动提取ROI,并在ROI上提取影像组学特征;步骤4、将影像组学特征作为输入,通过基于和声搜索的特征选择算法得到新影像组学特征;步骤5、将新影像组学特征输入分类器E中进行前向推理,得到的结构性分类结果。该方法利用深度学习技术从MRI影像中自动提取ROI,基于ROI提取影像组学特征,并通过启发式算法筛选最优影像组学特征,最后由分类器做出结构性病变的分类。
-
-
-
-
-
-
-
-
-