基于改进自监督特征学习的摄影图像美学风格分类方法

    公开(公告)号:CN114140645B

    公开(公告)日:2024-04-05

    申请号:CN202111393879.7

    申请日:2021-11-23

    Abstract: 本发明公开了一种基于改进自监督特征学习的摄影图像美学风格分类方法,首先对AVA美学数据集进行预处理;然后建立改进自监督特征学习神经网络,用二分类的AVA美学数据集对改进自监督特征学习神经网络进行预训练;再提取出预训练完成的改进自监督特征学习神经网络的特征提取网络部分,并连接一个SoftMax分类器,建立分类网络模型;最后采用LSTM神经网络结构输出具体的数据增强策略,得到分类精度最佳的摄影图像美学分类模型。本发明采用改进自监督特征学习模型进行预训练,学习到更好的美学特征,从数据集中寻找最佳数据增强策略,得到最佳的摄影图像美学分类模型。

    一种基于mGANprior的真实图像美感增强方法

    公开(公告)号:CN114418872A

    公开(公告)日:2022-04-29

    申请号:CN202111627418.1

    申请日:2021-12-28

    Abstract: 本发明公开了一种基于mGANprior的真实图像美感增强方法,对于待增强美感的真实图像,选择对应类型的PGGAN预训练生成模型,并确定需要增强的美感效果类型;使用级联分割模块方法对真实图像进行语义分割;使用mGANprior方法得到逆映射的图像;根据需增强的美学风格,对真实图像与逆映射的图像做对应的退化变换并计算损失,通过梯度下降优化得到最终的隐向量与图像美学风格增强后的图像Ienh;本发明方法实现了真实图像的美感增强,既最大程度的保留图像的原有信息,又对图像进行了可控的美学风格修改,本发明依据美学因素提出一种退化变换的损失函数,可以在真实图像上生成具有美感的模糊效果。

    一种基于mGANprior的真实图像美感增强方法

    公开(公告)号:CN114418872B

    公开(公告)日:2025-04-11

    申请号:CN202111627418.1

    申请日:2021-12-28

    Abstract: 本发明公开了一种基于mGANprior的真实图像美感增强方法,对于待增强美感的真实图像,选择对应类型的PGGAN预训练生成模型,并确定需要增强的美感效果类型;使用级联分割模块方法对真实图像进行语义分割;使用mGANprior方法得到逆映射的图像;根据需增强的美学风格,对真实图像与逆映射的图像做对应的退化变换并计算损失,通过梯度下降优化得到最终的隐向量与图像美学风格增强后的图像Ienh;本发明方法实现了真实图像的美感增强,既最大程度的保留图像的原有信息,又对图像进行了可控的美学风格修改,本发明依据美学因素提出一种退化变换的损失函数,可以在真实图像上生成具有美感的模糊效果。

    一种基于解耦表示的场景生成模型的美学增强方法

    公开(公告)号:CN114283083B

    公开(公告)日:2024-05-10

    申请号:CN202111580516.4

    申请日:2021-12-22

    Abstract: 本发明公开了一种基于解耦表示的场景生成模型的美学增强方法,首先选取一个StyleGAN的场景生成模型,得到隐向量矩阵Z和对隐向量矩阵Z做非线性变换产生的隐向量矩阵W;然后训练图像美学评价模型和图像美学风格模型,得到预测评分S;利用隐向量矩阵W以及预测评分S训练SVM分界面;对所选StyleGAN场景生成模型进行生成图像美学增强。本发明通过训练不同的美学预测器,对GAN生成网络中潜在的美学神经元进行解耦和操控,从而实现生成图像美学属性的可编辑,通过对隐空间进行语义编辑改变图像美学属性的方式,避免了对GAN模型结构的改动以及GAN的重新训练与调优,从而极大的缩短训练时间、减少所需资源。

    基于自监督学习与深度森林的摄影图像美学风格分类方法

    公开(公告)号:CN114299336A

    公开(公告)日:2022-04-08

    申请号:CN202111627628.0

    申请日:2021-12-28

    Abstract: 本发明公开了一种基于自监督学习与深度森林的摄影图像美学风格分类方法,首先构建并训练自监督特征学习模型,然后构建并训练深度森林模型,最后通过训练好的特征提取网络和深度森林模型完成摄影图像美学风格分类。本发明采用自监督特征学习模型进行预训练,充分挖掘美学特征,有利于深度森林模型更好寻找多标签摄影图像美学风格分类的最优解。深度森林模型在迭代训练过程中充分考虑了多标签之间的关联信息,提升多标签摄影图像美学风格分类的精度。

    一种基于解耦表示的场景生成模型的美学增强方法

    公开(公告)号:CN114283083A

    公开(公告)日:2022-04-05

    申请号:CN202111580516.4

    申请日:2021-12-22

    Abstract: 本发明公开了一种基于解耦表示的场景生成模型的美学增强方法,首先选取一个StyleGAN的场景生成模型,得到隐向量矩阵Z和对隐向量矩阵Z做非线性变换产生的隐向量矩阵W;然后训练图像美学评价模型和图像美学风格模型,得到预测评分S;利用隐向量矩阵W以及预测评分S训练SVM分界面;对所选StyleGAN场景生成模型进行生成图像美学增强。本发明通过训练不同的美学预测器,对GAN生成网络中潜在的美学神经元进行解耦和操控,从而实现生成图像美学属性的可编辑,通过对隐空间进行语义编辑改变图像美学属性的方式,避免了对GAN模型结构的改动以及GAN的重新训练与调优,从而极大的缩短训练时间、减少所需资源。

    基于改进自监督特征学习的摄影图像美学风格分类方法

    公开(公告)号:CN114140645A

    公开(公告)日:2022-03-04

    申请号:CN202111393879.7

    申请日:2021-11-23

    Abstract: 本发明公开了一种基于改进自监督特征学习的摄影图像美学风格分类方法,首先对AVA美学数据集进行预处理;然后建立改进自监督特征学习神经网络,用二分类的AVA美学数据集对改进自监督特征学习神经网络进行预训练;再提取出预训练完成的改进自监督特征学习神经网络的特征提取网络部分,并连接一个SoftMax分类器,建立分类网络模型;最后采用LSTM神经网络结构输出具体的数据增强策略,得到分类精度最佳的摄影图像美学分类模型。本发明采用改进自监督特征学习模型进行预训练,学习到更好的美学特征,从数据集中寻找最佳数据增强策略,得到最佳的摄影图像美学分类模型。

Patent Agency Ranking