-
公开(公告)号:CN118172249A
公开(公告)日:2024-06-11
申请号:CN202410366645.0
申请日:2024-03-28
Applicant: 南京信息工程大学
IPC: G06T3/4053 , G06T3/4046 , G06N3/0455 , G06N3/0464 , G06N3/0475 , G06N3/082
Abstract: 本发明公开了一种遥感图像超分辨率重建方法,属于图像超分辨率重建技术领域,方法包括:将待重建的低分辨率图像输入至训练好的超分辨率重建模型,获取重建的高分辨率图像;其中,所述超分辨率重建模型是结合Swin Transformer网络和CNN网络构建的生成对抗网络,包括:生成器网络模块:用于基于待重建的低分辨率图像,获取重建的高分辨率图像;判别器网络模块:用于基于待重建的低分辨率图像所对应的真实的高分辨率图像,判别重建的高分辨率图像的真实性;损失计算模块:用于基于判别器损失函数和生成器损失函数计算判别器损失和生成器损失。该方法能够对低分辨率的卫星遥感图像进行超分辨率重建。
-
公开(公告)号:CN118101330A
公开(公告)日:2024-05-28
申请号:CN202410476367.4
申请日:2024-04-19
Applicant: 南京信息工程大学
Abstract: 本发明公开了一种CAN车载网络入侵检测方法、装置、系统及存储介质,属于车载网络入侵检测技术领域,方法包括:将经过预处理的待测数据输入至训练好的PCNA模型进行检测,获取CAN车载网络入侵检测结果;其中,所述PCNA模型是基于预处理的数据集,结合Context_PC层和NA层构建,并结合联邦学习和差分隐私训练的。该方法能够在提高CAN车载网络入侵检测能力的同时保护车载客户端的隐私。
-
公开(公告)号:CN118097197A
公开(公告)日:2024-05-28
申请号:CN202410512258.3
申请日:2024-04-26
Applicant: 南京信息工程大学
IPC: G06V10/75 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种图像识别神经网络模型的匹配方法,属于神经网络技术领域,包括:获取各待选神经网络模型的历史图像识别信息;根据各待选神经网络模型的历史图像识别信息,对目标图像数据集进行识别处理,获取目标图像数据集与各待选神经网络模型的综合匹配度;根据综合匹配度筛选与目标图像数据集的优选神经网络模型,获取优选神经网络模型数据集。本发明根据综合匹配度建立优选神经网络模型数据集并进行识别质效分析处理,获取与优选神经网络模型对应的综合处理质效评估指数,利用综合处理质效评估指数筛选出最优神经网络模型,其与目标图像数据集具有高适配度且最优神经网络模型针对目标图像数据集也具有高处理效率和处理质量。
-
公开(公告)号:CN117635418B
公开(公告)日:2024-05-14
申请号:CN202410101475.3
申请日:2024-01-25
Applicant: 南京信息工程大学
IPC: G06T3/04 , G06N3/094 , G06N3/0464
Abstract: 本发明公开了一种生成对抗网络的训练方法、双向图像风格转换方法和装置,所述生成对抗网络的训练方法包括:获取用于训练的图像数据集,其中所述图像数据集包括多个真实第一风格图像以及对应的真实第二风格图像;利用所述图像数据集对生成对抗网络进行训练,获得训练好的生成对抗网络。该生成对抗网络的训练方法、双向图像风格转换方法和装置,通过在生成网络中加入特征二维注意力模块,并与卷积层、转置卷积层和反卷积层相配合,根据目标域的特征对图像进行自适应的调整,以在训练时采用虚拟批正则化和的手段提升训练速度和收敛速度,从而根据训练后的生成对抗网络模拟现有的风格创作出一幅全新的相似该风格的图像。
-
公开(公告)号:CN117974840A
公开(公告)日:2024-05-03
申请号:CN202410384865.6
申请日:2024-04-01
Applicant: 南京信息工程大学
IPC: G06T11/20 , A61B5/318 , A61B5/00 , G06N3/045 , G06N3/0464 , G06N3/0475 , G06N3/094 , G06N10/20
Abstract: 本发明公开了基于混合量子深度卷积生成对抗网络的心电图生成系统,包括数据预处理模块、参数设置模块、心电图数据生成模块、心电图数据判别模块、判别器参数更新模块和最终心电图数据获取模块;对真实心电图数据进行预处理,构建包括生成器和判别器的混合量子深度卷积生成对抗网络模型;将噪声输入到生成器中,输出生成的心电图数据;将预处理后的真实心电图数据和生成的心电图数据分别输入到判别器中,输出结果为二分类问题;更新生成器和判别器的参数,直到达到迭代次数,输出更新后的混合量子深度卷积生成对抗网络模型,获得最终的心电图数据。本发明提高了生成器的学习能力和表达能力,节省了量子资源,提高了量子模型的稳健性。
-
公开(公告)号:CN117635418A
公开(公告)日:2024-03-01
申请号:CN202410101475.3
申请日:2024-01-25
Applicant: 南京信息工程大学
IPC: G06T3/04 , G06N3/094 , G06N3/0464
Abstract: 本发明公开了一种生成对抗网络的训练方法、双向图像风格转换方法和装置,所述生成对抗网络的训练方法包括:获取用于训练的图像数据集,其中所述图像数据集包括多个真实第一风格图像以及对应的真实第二风格图像;利用所述图像数据集对生成对抗网络进行训练,获得训练好的生成对抗网络。该生成对抗网络的训练方法、双向图像风格转换方法和装置,通过在生成网络中加入特征二维注意力模块,并与卷积层、转置卷积层和反卷积层相配合,根据目标域的特征对图像进行自适应的调整,以在训练时采用虚拟批正则化和的手段提升训练速度和收敛速度,从而根据训练后的生成对抗网络模拟现有的风格创作出一幅全新的相似该风格的图像。
-
公开(公告)号:CN117079087A
公开(公告)日:2023-11-17
申请号:CN202311104879.X
申请日:2023-08-30
Applicant: 南京信息工程大学
IPC: G06V10/778 , G06V10/774 , G06V10/82 , G06V10/80 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种医疗图像识别技术领域的基于差分隐私的学习率自适应医疗图像识别方法,旨在解决现有技术中不同医疗机构的数据不是独立同分布的、无法满足客户隐私偏好等问题,其包括以下步骤:采集患者病变部位的医疗图像,将采集的医疗图像输入预置在本地客户端内的融合了多家医院的医疗数据的本地模型中,输出识别结果。本发明可以实现多个医疗机构的数据融合,且能够起到个性化隐私保护的作用。
-
公开(公告)号:CN112270996B
公开(公告)日:2023-04-25
申请号:CN202011267085.1
申请日:2020-11-13
Applicant: 南京信息工程大学
IPC: G16H50/70 , G06N3/0464 , G06N3/0442 , G06N3/08
Abstract: 本发明公开了一种可用于多变量医疗传感数据流的分类方法,首先构造签名矩阵,该签名矩阵可以捕捉各个时间序列之间的相关性并可以代表这些时间序列,此外它还对噪声具有鲁棒性;随后,针对个别不平衡的类别,我们采用辅助分类器生成对抗网络ACGAN来生成足够该类别所对应的签名矩阵;最后我们构建了一个基于注意力Attention机制的双向卷积长短期记忆BPCLSTM轻量级网络分类模型,以实现对多变量医疗传感数据流地准确分类,该分类模型不仅可以提高分类的准确率,而且还能够降低原始分类模型的规模。
-
公开(公告)号:CN115903741A
公开(公告)日:2023-04-04
申请号:CN202211445673.9
申请日:2022-11-18
Applicant: 南京信息工程大学
IPC: G05B23/02 , G06N3/0475 , G06N3/048
Abstract: 本发明公开了一种基于BiGRU‑VAE和Deep SVDD的工业控制系统数据异常检测方法,包括:获取待检测的安全水处理数据和/或水分配数据,并进行预处理;将预处理后的数据输入训练好的基于BiGRU‑VAE重构模型进行重构,得到重构误差;对所述重构误差进行指数加权移动平均值EMWA平滑处理得到平滑处理后的重构误差;将平滑处理后的重构误差输入训练好的基于Deep SVDD的数据异常检测模型;根据数据异常检测模型的输出,确定数据异常检测结果。
-
公开(公告)号:CN112270996A
公开(公告)日:2021-01-26
申请号:CN202011267085.1
申请日:2020-11-13
Applicant: 南京信息工程大学
Abstract: 本发明公开了一种可用于多变量医疗传感数据流的分类方法,首先构造签名矩阵,该签名矩阵可以捕捉各个时间序列之间的相关性并可以代表这些时间序列,此外它还对噪声具有鲁棒性;随后,针对个别不平衡的类别,我们采用辅助分类器生成对抗网络ACGAN来生成足够该类别所对应的签名矩阵;最后我们构建了一个基于注意力Attention机制的双向卷积长短期记忆BPCLSTM轻量级网络分类模型,以实现对多变量医疗传感数据流地准确分类,该分类模型不仅可以提高分类的准确率,而且还能够降低原始分类模型的规模。
-
-
-
-
-
-
-
-
-