基于深度学习的视觉—触觉交互模型构建方法

    公开(公告)号:CN110737339A

    公开(公告)日:2020-01-31

    申请号:CN201911029362.2

    申请日:2019-10-28

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于深度学习的视觉—触觉交互模型构建方法。首先,基于设计的三种虚拟交互任务,获得不同任务下视觉注意力和触感控制之间的相关性,进行跨模态行为分析;其次,根据相关性,利用LSTM神经网络建立视觉—触觉交互预测模型,实现不同任务的交互模型,并进行性能对比和评价;最后,利用训练模型预测出的结果在虚拟控制任务中进行实施,判断任务中目标的完成情况。本发明方法较采用传统的基于机器学习的训练模型相比,基于深度学习的LSTM神经网络模型预测效果最好,并在非随机任务中任务完成度较高,优势明显。

    基于深度学习的视觉—触觉交互模型构建方法

    公开(公告)号:CN110737339B

    公开(公告)日:2021-11-02

    申请号:CN201911029362.2

    申请日:2019-10-28

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于深度学习的视觉—触觉交互模型构建方法。首先,基于设计的三种虚拟交互任务,获得不同任务下视觉注意力和触感控制之间的相关性,进行跨模态行为分析;其次,根据相关性,利用LSTM神经网络建立视觉—触觉交互预测模型,实现不同任务的交互模型,并进行性能对比和评价;最后,利用训练模型预测出的结果在虚拟控制任务中进行实施,判断任务中目标的完成情况。本发明方法较采用传统的基于机器学习的训练模型相比,基于深度学习的LSTM神经网络模型预测效果最好,并在非随机任务中任务完成度较高,优势明显。

    一种基于最小可觉差的视频编码优化方法

    公开(公告)号:CN111726613B

    公开(公告)日:2021-07-27

    申请号:CN202010609415.4

    申请日:2020-06-30

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于最小可觉差的视频编码优化方法,包括以下步骤:步骤S1:对已经压缩过的原始视频数据进行预处理,剔除不具备参考价值的平坦帧;步骤S2:根据预处理后的视频及其初始QP,采用VGG神经网络,以分类任务的形式预测每个视频帧低于JND阈值的最优QP值;步骤S3:根据得到的最优QP值,作为原始视频的新QP值进行重新编码。与原视频相比,本发明能够在在不影响视频感知质量的情况下达到更低的编码比特率。

    一种基于最小可觉差的视频编码优化方法

    公开(公告)号:CN111726613A

    公开(公告)日:2020-09-29

    申请号:CN202010609415.4

    申请日:2020-06-30

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于最小可觉差的视频编码优化方法,包括以下步骤:步骤S1:对已经压缩过的原始视频数据进行预处理,剔除不具备参考价值的平坦帧;步骤S2:根据预处理后的视频及其初始QP,采用VGG神经网络,以分类任务的形式预测每个视频帧低于JND阈值的最优QP值;步骤S3:根据得到的最优QP值,作为原始视频的新QP值进行重新编码。与原视频相比,本发明能够在在不影响视频感知质量的情况下达到更低的编码比特率。

Patent Agency Ranking