基于变分自动编码器的潜变量空间解耦方法

    公开(公告)号:CN114627196B

    公开(公告)日:2024-07-02

    申请号:CN202210011776.8

    申请日:2022-01-06

    Applicant: 福州大学

    Abstract: 本发明提出一种基于变分自动编码器的潜变量空间解耦方法,包括编码器模型设计、解码器模型设计、损失函数设计。编码器模型设计阶段使用了自注意力机制和残差网络,使得图像生成模型更有效地捕捉长期依赖关系,增强模型的维度适应性;解码器模型设计阶段将潜变量空间编码z解码,实现图像重构;损失函数设计阶段使得潜变量空间编码维度与属性值趋向单调关系,从而达到优化训练的目的。通过设计良好的编解码模型和损失函数,实现对图像数据的特征映射和参数调整,实现有效的数据降维,并保留高度的图像特征。在确保图像重建精度的前提下让解耦的潜变量空间具备更好的可解释性和模块化特征,提高潜变量空间解耦性能。

    基于残差注意力块的运动模糊图像复原方法

    公开(公告)号:CN114331913A

    公开(公告)日:2022-04-12

    申请号:CN202210011777.2

    申请日:2022-01-06

    Applicant: 福州大学

    Abstract: 本发明提出一种基于残差注意力块的运动模糊图像复原方法,采用的网络包括由粗到细三个尺度,首先对图像进行预处理,然后在第一级尺度的网络上的编码端通过下采样提取模糊图像的主要特征,网络的基本结构由残差注意力块组成,可以更有效的提取出图像特征,再连接上循环模块,用以获取图像的空间信息,每个尺度的循环模块通过上采样方式连接,最后通过解码端上采样得到输出的结果。每个尺度的网络结构相同,通过跨尺度共享权重来减少参数量,来加快网络的训练速度,通过构建的运动模糊图像复原模型有效的恢复出清晰的图像边缘和一些细节的图像纹理信息。提高了运动模糊图像复原的质量。

    基于变分自动编码器的潜变量空间解耦方法

    公开(公告)号:CN114627196A

    公开(公告)日:2022-06-14

    申请号:CN202210011776.8

    申请日:2022-01-06

    Applicant: 福州大学

    Abstract: 本发明提出一种基于变分自动编码器的潜变量空间解耦方法,包括编码器模型设计、解码器模型设计、损失函数设计。编码器模型设计阶段使用了自注意力机制和残差网络,使得图像生成模型更有效地捕捉长期依赖关系,增强模型的维度适应性;解码器模型设计阶段将潜变量空间编码z解码,实现图像重构;损失函数设计阶段使得潜变量空间编码维度与属性值趋向单调关系,从而达到优化训练的目的。通过设计良好的编解码模型和损失函数,实现对图像数据的特征映射和参数调整,实现有效的数据降维,并保留高度的图像特征。在确保图像重建精度的前提下让解耦的潜变量空间具备更好的可解释性和模块化特征,提高潜变量空间解耦性能。

    基于残差注意力块的运动模糊图像复原方法

    公开(公告)号:CN114331913B

    公开(公告)日:2024-07-02

    申请号:CN202210011777.2

    申请日:2022-01-06

    Applicant: 福州大学

    Abstract: 本发明提出一种基于残差注意力块的运动模糊图像复原方法,采用的网络包括由粗到细三个尺度,首先对图像进行预处理,然后在第一级尺度的网络上的编码端通过下采样提取模糊图像的主要特征,网络的基本结构由残差注意力块组成,可以更有效的提取出图像特征,再连接上循环模块,用以获取图像的空间信息,每个尺度的循环模块通过上采样方式连接,最后通过解码端上采样得到输出的结果。每个尺度的网络结构相同,通过跨尺度共享权重来减少参数量,来加快网络的训练速度,通过构建的运动模糊图像复原模型有效的恢复出清晰的图像边缘和一些细节的图像纹理信息。提高了运动模糊图像复原的质量。

    基于融合代价和自适应惩罚项系数的半全局立体匹配方法

    公开(公告)号:CN114187208B

    公开(公告)日:2024-06-28

    申请号:CN202111549115.2

    申请日:2021-12-17

    Applicant: 福州大学

    Abstract: 本发明提供了一种基于融合代价和自适应惩罚项系数的半全局立体匹配方法,首先采用指数融合公式将输入图像的Census变换代价值、AD代价值、输入图像的#imgabs0#方向梯度和#imgabs1#方向梯度进行结合,获得融合匹配代价;然后根据像素点所处位置的颜色分量和梯度分量,选择对应的系数进行多路代价聚合;接着在三维视差空间中选择代价值最小的视差值,组成初始视差图;最后经过视差优化处理流程,得到最终的视差图。在Middlebury平台的Cones、Teddy和Tsukuba图像上的实验表明,相比原始半全局立体匹配算法,应用本技术方案可实现所有区域平均误差降低13.3%~34.5%;不连续区域平均误差降低20.3%~36.2%;非遮挡区域平均误差降低13.8%~51%。

    基于融合代价和自适应惩罚项系数的半全局立体匹配方法

    公开(公告)号:CN114187208A

    公开(公告)日:2022-03-15

    申请号:CN202111549115.2

    申请日:2021-12-17

    Applicant: 福州大学

    Abstract: 本发明提供了一种基于融合代价和自适应惩罚项系数的半全局立体匹配方法,首先采用指数融合公式将输入图像的Census变换代价值、AD代价值、输入图像的方向梯度和方向梯度进行结合,获得融合匹配代价;然后根据像素点所处位置的颜色分量和梯度分量,选择对应的系数进行多路代价聚合;接着在三维视差空间中选择代价值最小的视差值,组成初始视差图;最后经过视差优化处理流程,得到最终的视差图。在Middlebury平台的Cones、Teddy和Tsukuba图像上的实验表明,相比原始半全局立体匹配算法,应用本技术方案可实现所有区域平均误差降低13.3%~34.5%;不连续区域平均误差降低20.3%~36.2%;非遮挡区域平均误差降低13.8%~51%。

Patent Agency Ranking