-
公开(公告)号:CN117635418A
公开(公告)日:2024-03-01
申请号:CN202410101475.3
申请日:2024-01-25
Applicant: 南京信息工程大学
IPC: G06T3/04 , G06N3/094 , G06N3/0464
Abstract: 本发明公开了一种生成对抗网络的训练方法、双向图像风格转换方法和装置,所述生成对抗网络的训练方法包括:获取用于训练的图像数据集,其中所述图像数据集包括多个真实第一风格图像以及对应的真实第二风格图像;利用所述图像数据集对生成对抗网络进行训练,获得训练好的生成对抗网络。该生成对抗网络的训练方法、双向图像风格转换方法和装置,通过在生成网络中加入特征二维注意力模块,并与卷积层、转置卷积层和反卷积层相配合,根据目标域的特征对图像进行自适应的调整,以在训练时采用虚拟批正则化和的手段提升训练速度和收敛速度,从而根据训练后的生成对抗网络模拟现有的风格创作出一幅全新的相似该风格的图像。
-
公开(公告)号:CN112270996B
公开(公告)日:2023-04-25
申请号:CN202011267085.1
申请日:2020-11-13
Applicant: 南京信息工程大学
IPC: G16H50/70 , G06N3/0464 , G06N3/0442 , G06N3/08
Abstract: 本发明公开了一种可用于多变量医疗传感数据流的分类方法,首先构造签名矩阵,该签名矩阵可以捕捉各个时间序列之间的相关性并可以代表这些时间序列,此外它还对噪声具有鲁棒性;随后,针对个别不平衡的类别,我们采用辅助分类器生成对抗网络ACGAN来生成足够该类别所对应的签名矩阵;最后我们构建了一个基于注意力Attention机制的双向卷积长短期记忆BPCLSTM轻量级网络分类模型,以实现对多变量医疗传感数据流地准确分类,该分类模型不仅可以提高分类的准确率,而且还能够降低原始分类模型的规模。
-
公开(公告)号:CN113171102A
公开(公告)日:2021-07-27
申请号:CN202110376948.7
申请日:2021-04-08
Applicant: 南京信息工程大学
Abstract: 本发明公开了基于持续深度学习的ECG数据分类方法,具体为:获取采样率分别为128Hz和360Hz的ECG数据,对ECG数据进行预处理;构建卷积神经网络模型,并设置模型的超参数;利用构建的卷积神经网络模型结合EWC方法对采样率为128Hz的心拍样本进行训练并测试,得到第一次训练好的卷积神经网络模型;利用第一次训练好的卷积神经网络模型结合EWC方法对采样率为360Hz的心拍样本进行训练并测试,得到ECG数据分类模型;利用采样率为128Hz的心拍样本对ECG数据分类模型进行测试;采用ECG数据分类模型对待分类的ECG数据进行分类,得到分类结果。本发明能够对两种不同采样率的心电数据进行自动、高效、准确地分类心拍类型,进一步提高分类精度,加强模型的泛化能力。
-
公开(公告)号:CN112270996A
公开(公告)日:2021-01-26
申请号:CN202011267085.1
申请日:2020-11-13
Applicant: 南京信息工程大学
Abstract: 本发明公开了一种可用于多变量医疗传感数据流的分类方法,首先构造签名矩阵,该签名矩阵可以捕捉各个时间序列之间的相关性并可以代表这些时间序列,此外它还对噪声具有鲁棒性;随后,针对个别不平衡的类别,我们采用辅助分类器生成对抗网络ACGAN来生成足够该类别所对应的签名矩阵;最后我们构建了一个基于注意力Attention机制的双向卷积长短期记忆BPCLSTM轻量级网络分类模型,以实现对多变量医疗传感数据流地准确分类,该分类模型不仅可以提高分类的准确率,而且还能够降低原始分类模型的规模。
-
公开(公告)号:CN114255464B
公开(公告)日:2025-03-25
申请号:CN202111530794.9
申请日:2021-12-14
Applicant: 南京信息工程大学
IPC: G06V20/62 , G06V30/146 , G06V30/148 , G06V30/19 , G06N3/0464 , G06N3/045 , G06N3/084
Abstract: 本发明公开了基于CRAFT和SCRN‑SEED框架的自然场景文字检测识别方法,包括如下步骤:(1)利用真实数据集和合成数据集建立图像数据集,将图像数据集分为训练集和测试集;(2)利用图像数据集训练CRAFT网络;(3)利用真实数据集训练不规则文本纠正网络SCRN;(4)将SCRN与SEED网络结合,训练结合后的SCRN‑SEED网络;(5)将CRAFT网络与SCRN‑SEED网络连接,构建完整的模型并进行训练。本发明能够充分检测弯曲变形文本或长篇文本实例,通过精确地定位每一个字符,然后再把检测到的字符通过亲和力机制连接成一个文本达到检测的目的,对于弯曲、变形或者极长的文本都适用;通过不规则文本图片的矫正以及将语义信息用于全局信息的检测,能够精确的识别低质量的文本实例。
-
公开(公告)号:CN118115862B
公开(公告)日:2024-07-05
申请号:CN202410533850.1
申请日:2024-04-30
Applicant: 南京信息工程大学
IPC: G06V20/00 , G06V40/16 , G06V10/82 , G06V10/774 , G06N3/045 , G06N3/0475 , G06N3/094 , G06N3/084 , G06N3/088
Abstract: 本发明提出了一种人脸图像篡改异常检测方法、装置及介质,在cycleGAN基础上,引入了SENet通道注意力模块以增强模型性能。该方法通过无监督学习正常未经篡改的人脸图像分布,使用量化的异常图像重建差异作为异常得分;通过与预设阈值进行比较,实现对人脸篡改图像的异常检测;本发明利用生成式模型和通道注意力模块相结合,有效提升了人脸篡改图像检测的精度和鲁棒性;通过量化异常图像的重建差异,该方法能够可靠地识别出潜在的篡改行为,为人脸图像的安全性提供了有效保障。
-
公开(公告)号:CN113903023B
公开(公告)日:2024-07-02
申请号:CN202111142163.X
申请日:2021-09-28
Applicant: 南京信息工程大学
IPC: G06V20/62 , G06V10/25 , G06V10/82 , G06V30/19 , G06V10/44 , G06V10/40 , G06V30/414 , G06T7/12 , G06T7/62 , G06N3/0464 , G06N3/0442 , G06N3/045 , G06N3/044 , G06N3/084
Abstract: 本发明公开了一种基于改进MaskRCNN与SEED框架的自然场景文字检测识别方法,该方法将CV领域常用的实例分割算法Mask‑RCNN进行改进并用于自然场景中的文字定位,将其输出结果(蒙版Mask、边框Box)通过进一步的RoI Masking操作增强图像文字部分信息,然后与用于场景文字的语义增强的编码器‑解码器框架SEED组合完成精确度较高的自然场景文字检测与识别。本发明所述方法能够显著降低对训练过程中所需数据集的要求,对文字定位精确至字符轮廓,得到的文字识别精确度高。
-
公开(公告)号:CN117974840B
公开(公告)日:2024-06-11
申请号:CN202410384865.6
申请日:2024-04-01
Applicant: 南京信息工程大学
IPC: G06T11/20 , A61B5/318 , A61B5/00 , G06N3/045 , G06N3/0464 , G06N3/0475 , G06N3/094 , G06N10/20
Abstract: 本发明公开了基于混合量子深度卷积生成对抗网络的心电图生成系统,包括数据预处理模块、参数设置模块、心电图数据生成模块、心电图数据判别模块、判别器参数更新模块和最终心电图数据获取模块;对真实心电图数据进行预处理,构建包括生成器和判别器的混合量子深度卷积生成对抗网络模型;将噪声输入到生成器中,输出生成的心电图数据;将预处理后的真实心电图数据和生成的心电图数据分别输入到判别器中,输出结果为二分类问题;更新生成器和判别器的参数,直到达到迭代次数,输出更新后的混合量子深度卷积生成对抗网络模型,获得最终的心电图数据。本发明提高了生成器的学习能力和表达能力,节省了量子资源,提高了量子模型的稳健性。
-
公开(公告)号:CN118012499A
公开(公告)日:2024-05-10
申请号:CN202410263874.X
申请日:2024-03-08
Applicant: 南京信息工程大学
IPC: G06F8/75 , G06N3/0455 , G06N3/047 , G06N3/042 , G06N3/0464 , G06N3/0442 , G06N3/045 , G06N3/08 , G06F18/22
Abstract: 本发明公开了一种代码语义克隆检测方法、装置及系统,所述代码语义克隆检测方法包括将源代码处理成向量表示;将所述代码表示输入至预先训练好的Siamese网络模型,由所述神经网络模型预测输入的向量表示是否构成克隆对;所述Siamese网络模型包括Transformer编码器、图卷积网络模型和分类器,使用一致的权重来处理两个不同的输入,使得生成的图嵌入对具有可比性;使用LIME解释器对所述神经网络模型的预测结果进行解释。本发明不仅能够准确识别代码的语义克隆,还可以为检测结果提供直观的解释。
-
公开(公告)号:CN117725589A
公开(公告)日:2024-03-19
申请号:CN202311622585.6
申请日:2023-11-30
Applicant: 南京信息工程大学
IPC: G06F21/57 , G06F18/2415 , G06N3/0499 , G06N3/084
Abstract: 本发明公开了网络安全检测技术领域的一种具有可解释性的源代码漏洞检测方法及系统,旨在解决现有漏洞检测技术无法精确定位漏洞具体位置以及解释漏洞成因的技术问题。其漏洞检测方法包括:采集原始源代码和注释,通过预构建的unixcoder模型进行预处理以获取语义信息和结构信息;使用一对一映射函数将语义信息转化为序列化结构,并保留抽象语法树中的结构信息;将序列化结构输入至预构建的Transformer模型中进行训练,引入自注意力机制计算漏洞的风险得分,进行行级漏洞定位,并利用注意力热图找出漏洞区域,获得具有可解释性的漏洞检测结果。本发明应用于软件开发和网络安全领域,能够提高漏洞检测的准确性和可解释性,有效预防数据泄露、系统崩溃等安全风险。
-
-
-
-
-
-
-
-
-