-
公开(公告)号:CN119809940A
公开(公告)日:2025-04-11
申请号:CN202510287141.4
申请日:2025-03-12
Applicant: 华侨大学 , 信泰(福建)科技有限公司
IPC: G06T3/4076 , G06N3/0464 , G06N3/048 , G06T3/4046 , G06V10/44 , G06V10/80 , G06V10/82
Abstract: 一种基于状态模型的光场图像超分辨率重建方法和装置,包括:构建浅层特征提取模块,用于对输入的待重建的光场图像的子孔径图像形式提取浅层特征;利用状态空间模型构建深层特征提取单元;基于所述深层特征提取单元构建光场空角特征重建模块,用于对所述浅层特征重建光场空角特征;基于所述深层特征提取单元构建光场结构特征重建模块,用于对所述浅层特征重建光场结构特征;构建高分辨率图像重建模块,用于将所述浅层特征、所述光场空角特征和所述光场结构特征进行层次特征融合和上采样得到重建高分辨率光场图像。本发明通过利用状态空间模型的动态特性,显著提升光场图像超分辨率方法的全局空角信息表征能力和细节重建能力。
-
公开(公告)号:CN119832929A
公开(公告)日:2025-04-15
申请号:CN202510311256.2
申请日:2025-03-17
Applicant: 华侨大学 , 信泰(福建)科技有限公司 , 福建省万物智联科技有限公司
IPC: G10L21/10 , G10L25/24 , G06V40/16 , G06N3/045 , G06N3/0455 , G06N3/0464 , G06N3/0475 , G06N3/094 , G06V10/44 , G06V10/54
Abstract: 一种基于深度感知融合的语音驱动人脸视频生成方法及装置,涉及计算机视觉与图像处理领域,方法包括:S1,获取具有音频片段和参考图像的人脸说话视频数据集,对数据集进行预处理后,分为训练数据集和测试数据集;S2,构建人脸视频生成模型;包括音频编码器、图像编码器、深度编码器、交叉参考模块和跨模态注意力模块;S3,使用训练数据集合训练人脸视频生成模型,得到训练好的人脸视频生成模型;S4,将测试数据集输入训练好的人脸视频生成模型,输出生成的结合音频和视频的人脸视频。本发明通过在人脸视频生成模型中引入交叉参考模块和跨模态注意力模块,有效地在提高了人脸视频的面部结构准确度的同时兼顾了运动的细粒度细节。
-
公开(公告)号:CN118552409B
公开(公告)日:2024-11-05
申请号:CN202411017310.4
申请日:2024-07-29
Applicant: 华侨大学 , 信泰(福建)科技有限公司 , 福建省万物智联科技有限公司
IPC: G06T3/4053 , G06N3/0455 , G06N3/08 , G06T5/60
Abstract: 本发明公开了一种基于小波变换和Transformer的轻量级图像超分辨率方法及装置,涉及图像处理领域,包括:将待重建的低分辨率图像和上采样因子输入经训练的图像超分辨率模型,待重建的低分辨率图像输入第一卷积层,得到第一卷积层的输出特征并输入第一个基于小波变换的Transformer模块,经过若干个基于小波变换的Transformer模块的特征提取,将最后一个基于小波变换的Transformer模块的输出特征与第一卷积层的输出特征相加,得到第二相加结果,第二相加结果依次经过亚像素卷积层和第二卷积层,得到高分辨率重建图像,其中亚像素卷积层的尺度因子为上采样因子。本发明可解决现有Transformer方法计算复杂度过高的问题。
-
公开(公告)号:CN119850441A
公开(公告)日:2025-04-18
申请号:CN202510317059.1
申请日:2025-03-18
Applicant: 华侨大学 , 信泰(福建)科技有限公司 , 福建省万物智联科技有限公司
Abstract: 本发明公开了一种基于频域边界协同优化的沉浸式视频增强方法及装置,涉及视频处理领域,包括:获取待重建的压缩的多视点纹理加深度视频序列并输入到经训练的沉浸式视频增强模型;当前的待增强视频帧先经过特征提取模块,分别提取得到高频特征和低频特征;高频特征和低频特征经过频域增强模块,得到频域增强图像;频域增强图像和当前的待增强视频帧输入到边界增强模块,得到融合图像;融合图像和当前的待增强视频帧的相邻视频帧输入到时空可变形卷积模块,得到对齐后的融合图像,对齐后的融合图像经过质量增强模块,预测得到增强残差并生成对应的重建视频。本发明解决压缩伪影、边界伪影以及沉浸式视频的质量低等问题。
-
公开(公告)号:CN119762721A
公开(公告)日:2025-04-04
申请号:CN202510261796.4
申请日:2025-03-06
Applicant: 华侨大学 , 信泰(福建)科技有限公司 , 福建省万物智联科技有限公司
IPC: G06T19/20 , G06T9/00 , G06N3/0455 , G06N3/08
Abstract: 本发明公开了一种基于语义与几何引导的多阶段Mamba点云补全方法及装置,涉及点云处理领域,包括:构建基于语义与几何引导的多阶段Mamba点云补全模型并训练,得到经训练的多阶段Mamba点云补全模型;多排序策略Mamba解码器单元包括依次连接的若干个阶段的多排序策略Mamba解码器;获取待补全的不完整点云并输入到经训练的多阶段Mamba点云补全模型,不完整点云经过Transformer‑Mamba联合的点云局部特征编码单元,得到编码特征,编码特征输入到稀疏点云生成单元中,得到稀疏点云;稀疏点云输入到多排序策略Mamba解码器单元中,得到解码特征,解码特征经过点云上采样单元,得到预测的完整点云,克服现有Transformer编码器‑解码器结构二次方复杂度和局部细节丢失的问题。
-
公开(公告)号:CN118552409A
公开(公告)日:2024-08-27
申请号:CN202411017310.4
申请日:2024-07-29
Applicant: 华侨大学 , 信泰(福建)科技有限公司 , 福建省万物智联科技有限公司
IPC: G06T3/4053 , G06N3/0455 , G06N3/08 , G06T5/60
Abstract: 本发明公开了一种基于小波变换和Transformer的轻量级图像超分辨率方法及装置,涉及图像处理领域,包括:将待重建的低分辨率图像和上采样因子输入经训练的图像超分辨率模型,待重建的低分辨率图像输入第一卷积层,得到第一卷积层的输出特征并输入第一个基于小波变换的Transformer模块,经过若干个基于小波变换的Transformer模块的特征提取,将最后一个基于小波变换的Transformer模块的输出特征与第一卷积层的输出特征相加,得到第二相加结果,第二相加结果依次经过亚像素卷积层和第二卷积层,得到高分辨率重建图像,其中亚像素卷积层的尺度因子为上采样因子。本发明可解决现有Transformer方法计算复杂度过高的问题。
-
公开(公告)号:CN119444804A
公开(公告)日:2025-02-14
申请号:CN202510037837.1
申请日:2025-01-10
Applicant: 华侨大学
Abstract: 本发明涉及图像处理技术领域,提出了一种基于动态自适应和强化特征的多目标跟踪分割方法及系统,方法包括前处理步骤、外观代价计算步骤、预匹配步骤、运动代价计算步骤、正式匹配步骤、后处理步骤、重复步骤和可视化步骤。该方法通过具有动态自适应的数据关联对目标特征进行细化整合,以及利用基于掩码的注意力机制和基于四三角形变的掩码预测分别强化目标外观特征和运动信息,以能够在保持高跟踪精度的同时,实现快速运算和低成本运行,适用于更广泛的应用场景。
-
公开(公告)号:CN119027845B
公开(公告)日:2025-02-14
申请号:CN202411514321.3
申请日:2024-10-29
Applicant: 华侨大学 , 泉州圣源警用侦察设备有限公司
IPC: G06V20/17 , G06V10/25 , G06V10/764 , G06V10/77 , G06V10/774 , G06V10/80
Abstract: 本发明涉及图像处理与人工智能技术领域,公开了一种无人机森林火灾风险区块检测方法及系统,方法包括:构建基于区块分类的目标检测模型并进行训练,利用训练好的基于区块分类的目标检测模型实现无人机森林火灾风险区块检测;所述基于区块分类的目标检测模型利用区块映射器无人机图像中的不同区块映射为区块特征;利用多阶段采样网络对区块特征进行多种尺度的采样,并利用降维映射层进行尺度对齐,获得多尺度区块特征;通过哈达玛积融合多尺度区块特征,利用区块分类器将融合后的多尺度区块特征映射至区块类别概率。本发明以区域分类方式实现风险区块的定位,避免了现有技术因精确定位导致的庞大计算量,延长无人机可用时间。
-
公开(公告)号:CN118865075B
公开(公告)日:2024-12-03
申请号:CN202411319739.9
申请日:2024-09-23
Applicant: 华侨大学
IPC: G06V10/98 , G06N3/043 , G06N3/0464 , G06V10/776 , G06V10/82
Abstract: 本发明公开了一种基于分层时空感知的屏幕内容视频质量评价方法及装置,涉及视频评价领域,包括:提取屏幕内容视频中的若干个碎片化视频和若干个关键帧并输入经训练的屏幕内容视频质量评价模型,每个关键帧输入显著性计算模块筛选出若干个显著视频块,每个显著视频块输入双通道卷积神经网络,得到每个阶段的多层特征并输入块级质量评估模块,经过空间门特征增强模块,得到每个阶段的增强特征并输入块级质量聚合模块,得到每个视频块的块级质量分数;采用自适应加权策略计算得到空域感知质量分数;碎片化视频输入时域感知质量评估支路,得到时域感知质量分数,两者结合计算得到屏幕内容视频的质量分数,解决现有视频质量评价方法可靠性差的问题。
-
公开(公告)号:CN118379777B
公开(公告)日:2024-11-22
申请号:CN202410807403.0
申请日:2024-06-21
Applicant: 华侨大学
IPC: G06V40/16 , G06N3/0442 , G06N3/0475 , G06N3/094 , G06V10/774 , G06V10/82 , G06V20/40 , G06V40/20 , G10L21/10
Abstract: 本发明公开了一种基于姿势对抗网络的人脸视频生成方法及系统,涉及图像处理技术领域,方法包括:构建人脸视频生成模型,包括图像编码器、音频编码器、头部运动预测模块、姿势编码器和解码器,所述人脸视频生成模型接收人脸图像和语音音频,生成人脸说话视频;获取训练数据集并对人脸视频生成模型进行预训练;构建唇型同步判别器作为判别器,对预训练人脸视频生成模型进行生成对抗训练;利用训练好的人脸视频生成模型实现人脸视频生成。本发明利用音频信号的动态特性对头部运动进行建模,并结合生成对抗网络与唇型同步判别器提高人脸视频的唇形同步精度,同时兼顾视频的逼真度,使得其更加真实、自然,从而为各种应用场景提供了更多的灵活性。
-
-
-
-
-
-
-
-
-