-
公开(公告)号:CN111339960B
公开(公告)日:2023-08-11
申请号:CN202010128217.6
申请日:2020-02-28
Applicant: 江南大学
IPC: G06V40/16 , G06V10/766
Abstract: 本发明公开了一种基于判别低秩回归模型的人脸识别方法,属于智能信息处理领域。所述方法利用低秩框架,稀疏一致性约束和图嵌入约束来提高人脸识别的准确度。其实现过程为:将图嵌入约束,稀疏一致性约束和标签松弛方法融入到低秩回归框架中,形成新的判别低秩回归模型。新的判别低秩回归模型能有效的挖掘人脸图像间的全局和局部信息,从而提高人脸识别的精度。通过模型的优化求解,获得转换矩阵,利用转换矩阵将原始图像空间转换到具有更强的紧凑性和判别性的图像特征空间,最后利用最近邻分类算法进行人脸识别。与现有技术相比,本发明提出的人脸识别方法对低分辨率、噪声大等质量低劣的人脸图像的识别鲁棒性更高,且识别精度更高。
-
公开(公告)号:CN110060204B
公开(公告)日:2020-12-29
申请号:CN201910354852.3
申请日:2019-04-29
Applicant: 江南大学
Abstract: 本发明公开了一种基于可逆网络的单一图像超分辨率方法,属于图像处理领域。所述方法通过引入可逆网络来构建超分辨率模型的网络结构,利用可逆网络的可逆性质实现了高分辨率图像空间和低分辨率图像空间的相互映射,从低分辨率和高分辨率两个方向对超分辨率过程进行优化,解决了其他基于深度学习的超分辨率方法无法有效利用高分辨率和低分辨率图像之间的相互依赖的问题,从而提升了模型进行图像超分辨率的能力。还通过引入奇异值分解初始化1×1可逆卷积层的权重矩阵,提升了1×1可逆卷积层的逆过程的传播速度;采用本申请方法能够有效实现单一图像的超分辨率过程,利用低分辨率图像生成具有良好纹理细节以及视觉效果的超分辨率图像。
-
公开(公告)号:CN110782393A
公开(公告)日:2020-02-11
申请号:CN201910959774.X
申请日:2019-10-10
Applicant: 江南大学
IPC: G06T3/40
Abstract: 本发明公开了一种基于可逆网络的图像分辨率压缩及重建方法,属于图像处理领域。所述方法利用卷积神经网络与可逆网络构建进行图像分辨率压缩以及重建的网络模型,然后将高分辨率图像输入到进行分辨率压缩的网络中生成低分辨率压缩图像,将压缩图像输入到进行重建的网络中得到高分辨率重建图像,利用压缩图像和重建图像分别与目标低分辨率图像和原始图像之间的差异来设计优化的目标函数,通过最小化该函数的值来对网络模型的参数进行更新,提升网络进行图像分辨率压缩以及重建的能力;解决了图像分辨率压缩及重建模型在压缩图像时无法保存更多的信息以及无法利用压缩过程来指导重建过程,从而导致图像重建效果不佳的问题。
-
公开(公告)号:CN111339960A
公开(公告)日:2020-06-26
申请号:CN202010128217.6
申请日:2020-02-28
Applicant: 江南大学
IPC: G06K9/00
Abstract: 本发明公开了一种基于判别低秩回归模型的人脸识别方法,属于智能信息处理领域。所述方法利用低秩框架,稀疏一致性约束和图嵌入约束来提高人脸识别的准确度。其实现过程为:将图嵌入约束,稀疏一致性约束和标签松弛方法融入到低秩回归框架中,形成新的判别低秩回归模型。新的判别低秩回归模型能有效的挖掘人脸图像间的全局和局部信息,从而提高人脸识别的精度。通过模型的优化求解,获得转换矩阵,利用转换矩阵将原始图像空间转换到具有更强的紧凑性和判别性的图像特征空间,最后利用最近邻分类算法进行人脸识别。与现有技术相比,本发明提出的人脸识别方法对低分辨率、噪声大等质量低劣的人脸图像的识别鲁棒性更高,且识别精度更高。
-
公开(公告)号:CN110060204A
公开(公告)日:2019-07-26
申请号:CN201910354852.3
申请日:2019-04-29
Applicant: 江南大学
Abstract: 本发明公开了一种基于可逆网络的单一图像超分辨率方法,属于图像处理领域。所述方法通过引入可逆网络来构建超分辨率模型的网络结构,利用可逆网络的可逆性质实现了高分辨率图像空间和低分辨率图像空间的相互映射,从低分辨率和高分辨率两个方向对超分辨率过程进行优化,解决了其他基于深度学习的超分辨率方法无法有效利用高分辨率和低分辨率图像之间的相互依赖的问题,从而提升了模型进行图像超分辨率的能力。还通过引入奇异值分解初始化1×1可逆卷积层的权重矩阵,提升了1×1可逆卷积层的逆过程的传播速度;采用本申请方法能够有效实现单一图像的超分辨率过程,利用低分辨率图像生成具有良好纹理细节以及视觉效果的超分辨率图像。
-
公开(公告)号:CN110046255A
公开(公告)日:2019-07-23
申请号:CN201910317695.9
申请日:2019-04-19
Applicant: 江南大学
Abstract: 本发明公开了一种基于抗噪移动时间势能聚类的文本分类方法,主要解决文本数据量较大的情况下,噪声数据较多导致文本分类准确率不高的问题。该方法首先采用结巴分词和去停用词的方法对待分类文本数据进行预处理,然后基于IG方法对预处理后的文本数据提取特征,并使用TF-IDF策略计算各个特征的权值,最后对经过PCA降维后的权值矩阵采用抗噪移动时间势能聚类算法对其进行分类。本发明方法能够准确识别并去除文本数据中的噪声数据,以提高文本分类的精度,满足实际工程系统的设计需求。
-
-
-
-
-