-
公开(公告)号:CN119477734A
公开(公告)日:2025-02-18
申请号:CN202411664561.1
申请日:2024-11-20
Applicant: 福州大学
IPC: G06T5/60 , G06T5/70 , G06T5/90 , G06V10/40 , G06V10/80 , G06V10/82 , G06N3/0442 , G06N3/045 , G06N3/0464 , G06N3/08
Abstract: 本发明提出一种面向色障患者(CVD)感知图像的色彩增强方法和系统;所述方法包括以下步骤:步骤S1、基于色觉障碍者的视觉特性,通过主观实验建立色觉障碍友好图像数据库;步骤S2、构建色觉障碍感知引导增强模型(CVD Perception‑guided Enhancement Model,CPEM),所述色觉障碍感知引导增强模型包括色觉障碍者CVD引导的特征提取模块和扩散变换模块;步骤S3、利用色觉障碍友好图像数据库完成对色觉障碍感知引导增强模型的训练;步骤S4、将原始图像和纯噪声图像作为模型输入,通过训练后的色觉障碍感知引导增强模型对原始图像进行色彩重构,生成符合CVD用户视觉感知的增强图像。本发明所提出的模型在提升色觉障碍个体色彩感知方面具有显著优势。
-
公开(公告)号:CN115412906B
公开(公告)日:2025-02-14
申请号:CN202211011016.3
申请日:2022-08-23
Applicant: 福州大学
Abstract: 本发明涉及一种基于混合中继‑智能反射面和联邦学习的无线通信方法。联邦学习作为分布式机器学习的一种,它的核心思想是在边缘设备上通过协作训练学习模型以获得最优全局模型,并且同时避免传输原始数据。考虑到无线信道固有的叠加特性,因此引入空中计算来支持大量的本地设备上传数据。同时根据物理层安全中的保密速率来筛除部分不安全的设备以获得更高的安全性。由于混合中继‑智能反射面不仅可以反射而且可以放大入射信号,因此可以通过它来增强联邦学习过程中的上行链路的增益,以获得更优的精确度。本发明通过制定一种设计方法,交替优化设备选择、混合中继‑智能反射面放大系数、相移以及接收波束成形向量以提高联邦学习的精确度和安全性。
-
公开(公告)号:CN114979645B
公开(公告)日:2024-05-17
申请号:CN202210569675.2
申请日:2022-05-24
Applicant: 福州大学
IPC: H04N19/146 , H04N19/70 , G06N3/0985
Abstract: 本发明提供了一种面向E‑Paper显示器的视频编解码方法。首先,根据黑白E‑Paper的显示原理,对视频的编码过程中解耦色度通道,降低编码复杂度和传输码流;其次,视频播放时不仅存在编码失真,还存在由于E‑Paper响应时间问题导致的显示失真,故通过辅助设备采集E‑Paper显示设备上的视频内容,并基于深度学习网络学习解码后视频帧与显示图像间的映射关系。最后,将解码生成视频内容通过深度学习习得的模型生成考虑显示失真的预处理视频帧,进而提升观感质量。本发明有效地解决视频编码复杂度,传输负载以及E‑Paper显示器的视频观感质量问题。
-
公开(公告)号:CN117632072A
公开(公告)日:2024-03-01
申请号:CN202311599318.1
申请日:2023-11-28
Applicant: 福州大学
IPC: G06F3/147 , G06T9/00 , G06N3/0464 , G06N3/0455
Abstract: 本发明提供了一种面向电子纸显示的退化文档图像映射方法。该方法包括以下步骤:首先,搭建电子纸显示硬件平台,即连接所有器件使电子纸能够正常运作,所述电子纸显示硬件平台包括主控芯片、电子纸驱动板以及电子纸显示屏;其次,搭建图像处理系统,对退化文档图像进行图像预处理操作,所述图像预处理操作包括尺度变换、灰度化和背景估计;然后,搭建深度学习网络,将图像预处理操作得到的图像输入至深度学习网络,获取二值化图像;最后,搭建电子纸显示系统,对深度学习步骤获得的二值化图像进行映射编码。本发明通过设计一种面向电子纸显示的退化文档图像映射方法,提升了图像映射性能,提高电子纸对于退化文档图像的显示效果和可读性。
-
公开(公告)号:CN114898718B
公开(公告)日:2023-08-25
申请号:CN202210658851.X
申请日:2022-06-10
Applicant: 福州大学
IPC: G09G3/34
Abstract: 本发明涉及一种彩色电润湿电子纸实时色彩转换方法。将视频分解成一帧帧的图像数据,并对图像进行分区处理;然后将图像色彩转换成256阶的灰度值信息,而后进行32×32的离散余弦变换(DCT)将图像灰度信息转换为频率分量;对32×32矩阵隔位取出8×8矩阵,并对所有数值求平均;灰度值大于均值或大于下一个像素值的记为1,反之记为0,计算哈希值,构造长整型指纹,对分区像素进行查找分组;再对相似的局部特征经池化层求平均的降采样处理;通过权值矩阵将前后层的特征神经元全连接;最后将目标像素分区RGB色彩信息根据色彩转换准则与驱动电压‑开口率特性曲线,将各个目标像素的RGB色彩计算转化为CMY油墨的驱动电压,并保存以便下次播放无需重复计算。
-
公开(公告)号:CN115412906A
公开(公告)日:2022-11-29
申请号:CN202211011016.3
申请日:2022-08-23
Applicant: 福州大学
Abstract: 本发明涉及一种基于混合中继‑智能反射面和联邦学习的无线通信方法。联邦学习作为分布式机器学习的一种,它的核心思想是在边缘设备上通过协作训练学习模型以获得最优全局模型,并且同时避免传输原始数据。考虑到无线信道固有的叠加特性,因此引入空中计算来支持大量的本地设备上传数据。同时根据物理层安全中的保密速率来筛除部分不安全的设备以获得更高的安全性。由于混合中继‑智能反射面不仅可以反射而且可以放大入射信号,因此可以通过它来增强联邦学习过程中的上行链路的增益,以获得更优的精确度。本发明通过制定一种设计方法,交替优化设备选择、混合中继‑智能反射面放大系数、相移以及接收波束成形向量以提高联邦学习的精确度和安全性。
-
公开(公告)号:CN114900827A
公开(公告)日:2022-08-12
申请号:CN202210502957.0
申请日:2022-05-10
Applicant: 福州大学
Abstract: 本发明涉及一种基于深度强化学习在D2D异构蜂窝网络中的隐蔽通信系统,包括随机分布的M个用户和N个基站;所述N个基站中包含1个宏基站和N‑1个小基站;所述M个用户分别配备了发射天线和接收天线,在蜂窝模式或者D2D模式下通信;所述M个用户的位置固定不变,个数为偶数,每两个用户组成一对进行D2D通信,每对D2D链路由发射者Dr和接收者Dt组成;还包括一无人机,对其中一对用户进行监测,并给定一个隐蔽传输速率R;当用户与基站进行通信时,采用最大信噪比的方式将用户与基站关联。本发明能够通过采用深度强化学习的方法让用户进行不同通信模式的选则以及功率分配,从而最大化隐蔽传输速率。
-
公开(公告)号:CN112866668B
公开(公告)日:2022-04-19
申请号:CN202011316505.0
申请日:2020-11-20
Applicant: 福州大学
IPC: H04N13/106 , H04N13/111 , H04N13/161
Abstract: 本发明涉及一种基于GAN潜码的多视点视频重建方法,可用于虚拟视点合成、多视点视频压缩后处理以及虚拟现实等领域,具有广泛的应用价值。本发明通过GAN的生成能力来补偿相邻视点之间丢失的映射关系,并在提取网络的训练过程中考虑重建质量与潜码的码率之间的权衡。在编码器端,使用卷积网络提取GAN的潜码作为辅助信息,并构建模型的码率与重建质量联合代价函数。在解码器端,GAN的生成器将相邻视点与潜码结合起来以重构中间视图。本发明GAN潜码可以用作多视点视频的辅助信息,以实现更好的率失真性能。
-
公开(公告)号:CN112631434B
公开(公告)日:2022-04-12
申请号:CN202110028453.5
申请日:2021-01-11
Applicant: 福州大学
Abstract: 本发明涉及一种基于深度学习的振动触觉编解码方法,具体包括以下步骤:将触觉信号不同维度数据进行联合编码,去除触觉数据三维空间上存在的冗余,同时对其进行预处理;利用门控循环单元网络GRU进行训练,每次均以两组数据输入,得到下一组数据的预测数据,并以下一组数据的真实值作为标签,将预测数据和真实数据进行比较计算残差对预测数据进行补偿,得到重构后的预测数据;将重构的预测数据与和前一组数据打包重新作为下一轮预测的输入数据。本发明较现有技术,在性能上有大幅度的提升。
-
公开(公告)号:CN111263145B
公开(公告)日:2022-03-22
申请号:CN202010051264.5
申请日:2020-01-17
Applicant: 福州大学
IPC: H04N19/103 , H04N19/567 , H04N19/85 , G06N3/04 , G06N3/08
Abstract: 本发明涉及一种基于深度神经网络的多功能视频快速编码方法。首先,通过研究视频内容的时空域相关性,使用反向传播(BP)神经网络对CU的划分深度进行预测;然后,使用统计概率对CU的划分模式进行选择;最后,在编码时跳过不必要的划分模式以节省编码时间,从而达到保证编码器编码性能不变的情况下降低时间复杂度的目的。
-
-
-
-
-
-
-
-
-