基于强化学习的VVC的快速帧内编码方法

    公开(公告)号:CN111988628B

    公开(公告)日:2023-10-17

    申请号:CN202010933234.7

    申请日:2020-09-08

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于强化学习的VVC的快速帧内编码方法。首先,离线训练强化学习模型。然后,在编码过程中使用训练好的模型对编码单元(CU)的划分模式进行预测。最后,跳过未被选择的CU划分模式以节省编码时间。在不影响编码器编码性能的情况下,本发明所提出的算法相比于原始编码器能够节省较多的编码器编码时间。

    一种面向E-Paper显示器的视频编解码方法

    公开(公告)号:CN114979645B

    公开(公告)日:2024-05-17

    申请号:CN202210569675.2

    申请日:2022-05-24

    Applicant: 福州大学

    Abstract: 本发明提供了一种面向E‑Paper显示器的视频编解码方法。首先,根据黑白E‑Paper的显示原理,对视频的编码过程中解耦色度通道,降低编码复杂度和传输码流;其次,视频播放时不仅存在编码失真,还存在由于E‑Paper响应时间问题导致的显示失真,故通过辅助设备采集E‑Paper显示设备上的视频内容,并基于深度学习网络学习解码后视频帧与显示图像间的映射关系。最后,将解码生成视频内容通过深度学习习得的模型生成考虑显示失真的预处理视频帧,进而提升观感质量。本发明有效地解决视频编码复杂度,传输负载以及E‑Paper显示器的视频观感质量问题。

    一种基于共稀疏解析模型的免设备定位方法

    公开(公告)号:CN109862518A

    公开(公告)日:2019-06-07

    申请号:CN201910028241.X

    申请日:2019-01-11

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于共稀疏解析模型的免设备定位方法。首先在定位区域四周布置无线传感节点,每个节点发送并接收信号,由此形成多条通信链路;接着通过把多条链路整体衰减情况映射到无线网络区域量化的多个体素上,确定各个体素的衰减情况,衰减最大的区域即为目标定位点。本发明利用了共稀疏解析模型在去噪性能上的优势,首次将共稀疏解析信号模型应用到RTI系统中,并通过贪婪解析追踪算法对定位点的反问题进行求解,大大提高了定位精度。

    一种基于共稀疏解析模型的免设备定位方法

    公开(公告)号:CN109862518B

    公开(公告)日:2021-05-18

    申请号:CN201910028241.X

    申请日:2019-01-11

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于共稀疏解析模型的免设备定位方法。首先在定位区域四周布置无线传感节点,每个节点发送并接收信号,由此形成多条通信链路;接着通过把多条链路整体衰减情况映射到无线网络区域量化的多个体素上,确定各个体素的衰减情况,衰减最大的区域即为目标定位点。本发明利用了共稀疏解析模型在去噪性能上的优势,首次将共稀疏解析信号模型应用到RTI系统中,并通过贪婪解析追踪算法对定位点的反问题进行求解,大大提高了定位精度。

    基于强化学习的VVC的快速帧内编码方法

    公开(公告)号:CN111988628A

    公开(公告)日:2020-11-24

    申请号:CN202010933234.7

    申请日:2020-09-08

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于强化学习的VVC的快速帧内编码方法。首先,离线训练强化学习模型。然后,在编码过程中使用训练好的模型对编码单元(CU)的划分模式进行预测。最后,跳过未被选择的CU划分模式以节省编码时间。在不影响编码器编码性能的情况下,本发明所提出的算法相比于原始编码器能够节省较多的编码器编码时间。

    一种面向E-Paper显示器的视频编解码方法

    公开(公告)号:CN114979645A

    公开(公告)日:2022-08-30

    申请号:CN202210569675.2

    申请日:2022-05-24

    Applicant: 福州大学

    Abstract: 本发明提供了一种面向E‑Paper显示器的视频编解码方法。首先,根据黑白E‑Paper的显示原理,对视频的编码过程中解耦色度通道,降低编码复杂度和传输码流;其次,视频播放时不仅存在编码失真,还存在由于E‑Paper响应时间问题导致的显示失真,故通过辅助设备采集E‑Paper显示设备上的视频内容,并基于深度学习网络学习解码后视频帧与显示图像间的映射关系。最后,将解码生成视频内容通过深度学习习得的模型生成考虑显示失真的预处理视频帧,进而提升观感质量。本发明有效地解决视频编码复杂度,传输负载以及E‑Paper显示器的视频观感质量问题。

Patent Agency Ranking