基于失真引导的水下图像复原方法

    公开(公告)号:CN115049562A

    公开(公告)日:2022-09-13

    申请号:CN202210782462.8

    申请日:2022-07-05

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于失真引导的水下图像复原方法,包括:步骤S1:构建水下多类型失真图像数据库;步骤S2:通过水下失真图像数据库中的I和M训练失真检测网络,并预测一张失真图像的掩码图M’;S3:将水下失真图像下采样并进行离散化以降低输入图像的维度空间大小,根据水下失真图像的掩码图M’将水下失真图像的失真像素置0后输入Transformer架构,对输出的概率图进行吉布斯采样,获取复原图像的低分辨率先验图像;S4:采用Encoder‑Decoder结构作为复原网络的主体架构,并在复原网络的编码端构建三个分支的输入;S5:构建DAM失真聚合模块,并利用失真检测网络的中间层信息引导复原网络,最终得到水下失真图像的复原图像。本发明能够有效提高水下失真图像的复原效果。

    基于非对称码率分配的立体视频传输方法

    公开(公告)号:CN111711810B

    公开(公告)日:2021-06-22

    申请号:CN202010617647.4

    申请日:2020-06-30

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于非对称码率分配的立体视频传输方法,包括以下步骤:步骤S1:基于左、右视点码率非对称情况下的立体视频感知质量,建立立体视频客观质量模型;步骤S2:根据立体视频客观质量模型,利用数学模型表达预测网络带宽过程和缓存状态变化的过程,建立基于HTTP动态自适应流媒体技术的立体视频码率自适应传输算法模型;步骤S3:在立体视频传输系统中,根据基于HTTP动态自适应流媒体技术的立体视频码率自适应传输算法模型,为每次视频片段下载请求提供最佳左、右视点码率组合,完成立体视频的传输。本发明可以有效预测立体视频质量,实现非对称码率的自适应传输。

    基于短期记忆和用户期望的视频质量评价方法

    公开(公告)号:CN111277899B

    公开(公告)日:2021-06-22

    申请号:CN202010098992.1

    申请日:2020-02-18

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于短期记忆和用户期望的视频质量评价方法,通过主观实验,获取短期记忆形成的不同时长以及由于短期记忆后产生的用户期望对视频体验数据。最后通过数据分析及数学建模,来获取记忆形成时长和用户期望对视频体验质量的评价模型。本发明考虑了短期记忆和用户期望与视频质量的影响,能够获取更精准的视频质量评价。

    基于轮廓统计特性的部分参考声纳图像应用质量评价方法

    公开(公告)号:CN111986197A

    公开(公告)日:2020-11-24

    申请号:CN202010938912.9

    申请日:2020-09-09

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于轮廓统计特性的部分参考声纳图像应用质量评价方法,该方法包括以下步骤:S1、对原始声纳图像,即参考声纳图像进行轮廓波变换,以获得的子带系数作为图像轮廓特征;S2、对每个子带系数分别提取表征子带信息、能量以及幅值的统计特征,作为参考声纳图像的轮廓特征信息;S3、对待测声纳图像重复步骤S1-S2,提取待测声纳图像的轮廓特征信息;S4、计算参考声纳图像与待测声纳图像之间的轮廓变化特征;S5、利用集成学习,基于步骤S4得到的轮廓变化特征,建立部分参考声纳图像应用质量评价模型。该方法有利于提高声纳图像应用质量评价性能。

    基于弱监督学习的图像协同分割方法

    公开(公告)号:CN111798473A

    公开(公告)日:2020-10-20

    申请号:CN202010696030.6

    申请日:2020-07-20

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于弱监督学习的图像协同分割方法,包括以下步骤:步骤S1:获取一组包含m张图像的图像集,并设置高斯模型个数和加权参数;步骤S2:采用高斯模型将第i个图像聚成k个类,并计算图像的前景概率图;步骤S3:将所有边界高斯分布视为背景查询,激活图像集的前景概率图;步骤S4:生成图像协同分割的结果并用图像的连通性进行处理,得到二进制图像集,即为所得图像协同分割的结果。本发明将图像边界作为弱监督先验嵌入到协同分割的问题公式中去,得到二进制图像集,并结合图的连通性实现图像协同分割。

    基于深度学习的视觉—触觉交互模型构建方法

    公开(公告)号:CN110737339A

    公开(公告)日:2020-01-31

    申请号:CN201911029362.2

    申请日:2019-10-28

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于深度学习的视觉—触觉交互模型构建方法。首先,基于设计的三种虚拟交互任务,获得不同任务下视觉注意力和触感控制之间的相关性,进行跨模态行为分析;其次,根据相关性,利用LSTM神经网络建立视觉—触觉交互预测模型,实现不同任务的交互模型,并进行性能对比和评价;最后,利用训练模型预测出的结果在虚拟控制任务中进行实施,判断任务中目标的完成情况。本发明方法较采用传统的基于机器学习的训练模型相比,基于深度学习的LSTM神经网络模型预测效果最好,并在非随机任务中任务完成度较高,优势明显。

Patent Agency Ranking