基于宽度学习的多视图的癌症基因数据聚类集成方法及装置

    公开(公告)号:CN118155731A

    公开(公告)日:2024-06-07

    申请号:CN202410311105.2

    申请日:2024-03-19

    Abstract: 本发明公开了一种基于宽度学习的多视图的癌症基因数据聚类集成方法及装置,包括:构建自编码器模型,确定经训练的子空间自表达结构的系数矩阵,基于该系数矩阵对自编码器模型进行训练,多视图的癌症基因数据输入经训练的自编码器模型,得到特征处理后的样本矩阵;对特征处理后的样本矩阵进行聚类,得到多个基础聚类结果并作为集成池中的集成成员,以构建模糊划分矩阵和置信度矩阵;构建基于第二宽度学习网络的聚类集成模型,对聚类集成模型进行训练,得到经训练的聚类集成模型,将模糊划分矩阵输入经训练的聚类集成模型,得到软集成结果,对软集成结果进行聚类,得到多视图的癌症基因数据的聚类结果,有效提升网络模型的鲁棒性和准确性。

    一种基于宽度学习的半监督多视图聚类集成方法及系统

    公开(公告)号:CN119479047B

    公开(公告)日:2025-04-29

    申请号:CN202510066012.2

    申请日:2025-01-16

    Abstract: 本发明涉及机器学习领域,公开了一种基于宽度学习的半监督多视图聚类集成方法及系统,方法包括以下步骤:构建一种可以依据多视图人脸图像数据进行特征处理的基于宽度学习的自编码器,用于对输入的人脸图像进行特征提取,并基于宽度学习计算不同节点特征的权重;结合基于宽度学习的自编码器和双向约束传播构建聚类集成模型;利用聚类集成模型实现多视图人脸图像的聚类集成。本发明利用宽度学习系统的性能优势进行多视图数据的聚类处理,得到兼具效率与性能的模型网络,引入了流型结构和成对约束,并且在共识过程中采用了约束传播,丰富样本信息,有效提升基于宽度学习的聚类集成网络模型的鲁棒性和准确性,因而在实际场景中更具适用性。

    肺炎病毒基因数据多视图聚类集成方法、装置和电子设备

    公开(公告)号:CN119513631A

    公开(公告)日:2025-02-25

    申请号:CN202510072725.X

    申请日:2025-01-17

    Abstract: 肺炎病毒基因数据多视图聚类集成方法、装置和电子设备,包括:构造具有宽度学习网络和全局子空间结构的宽度自编码器;对宽度自编码器进行训练,确定宽度自编码器的模型参数,将多视图的肺炎基因数据输入训练后的宽度自编码器后输出压缩特征子空间;将压缩特征子空间聚类得到多个基本分区作为集成池的集成成员;将基本分区变换为模糊划分矩阵,基于集成池构造无向二分图,无向二分图的节点之间的连接权对应于模糊划分矩阵中的值;将无向二分图切割成几个不相交的子图,根据每个子图的样本节点得到多视图的肺炎基因数据的聚类集成结果。本发明显著减少参数量和计算资源,高效完成肺炎基因数据的多视图聚类分析。

    一种基于宽度学习的半监督多视图聚类集成方法及系统

    公开(公告)号:CN119479047A

    公开(公告)日:2025-02-18

    申请号:CN202510066012.2

    申请日:2025-01-16

    Abstract: 本发明涉及机器学习领域,公开了一种基于宽度学习的半监督多视图聚类集成方法及系统,方法包括以下步骤:构建一种可以依据多视图人脸图像数据进行特征处理的基于宽度学习的自编码器,用于对输入的人脸图像进行特征提取,并基于宽度学习计算不同节点特征的权重;结合基于宽度学习的自编码器和双向约束传播构建聚类集成模型;利用聚类集成模型实现多视图人脸图像的聚类集成。本发明利用宽度学习系统的性能优势进行多视图数据的聚类处理,得到兼具效率与性能的模型网络,引入了流型结构和成对约束,并且在共识过程中采用了约束传播,丰富样本信息,有效提升基于宽度学习的聚类集成网络模型的鲁棒性和准确性,因而在实际场景中更具适用性。

    一种无人机森林火灾风险区块检测方法及系统

    公开(公告)号:CN119027845B

    公开(公告)日:2025-02-14

    申请号:CN202411514321.3

    申请日:2024-10-29

    Abstract: 本发明涉及图像处理与人工智能技术领域,公开了一种无人机森林火灾风险区块检测方法及系统,方法包括:构建基于区块分类的目标检测模型并进行训练,利用训练好的基于区块分类的目标检测模型实现无人机森林火灾风险区块检测;所述基于区块分类的目标检测模型利用区块映射器无人机图像中的不同区块映射为区块特征;利用多阶段采样网络对区块特征进行多种尺度的采样,并利用降维映射层进行尺度对齐,获得多尺度区块特征;通过哈达玛积融合多尺度区块特征,利用区块分类器将融合后的多尺度区块特征映射至区块类别概率。本发明以区域分类方式实现风险区块的定位,避免了现有技术因精确定位导致的庞大计算量,延长无人机可用时间。

    基于分层时空感知的屏幕内容视频质量评价方法及装置

    公开(公告)号:CN118865075B

    公开(公告)日:2024-12-03

    申请号:CN202411319739.9

    申请日:2024-09-23

    Applicant: 华侨大学

    Abstract: 本发明公开了一种基于分层时空感知的屏幕内容视频质量评价方法及装置,涉及视频评价领域,包括:提取屏幕内容视频中的若干个碎片化视频和若干个关键帧并输入经训练的屏幕内容视频质量评价模型,每个关键帧输入显著性计算模块筛选出若干个显著视频块,每个显著视频块输入双通道卷积神经网络,得到每个阶段的多层特征并输入块级质量评估模块,经过空间门特征增强模块,得到每个阶段的增强特征并输入块级质量聚合模块,得到每个视频块的块级质量分数;采用自适应加权策略计算得到空域感知质量分数;碎片化视频输入时域感知质量评估支路,得到时域感知质量分数,两者结合计算得到屏幕内容视频的质量分数,解决现有视频质量评价方法可靠性差的问题。

    一种基于姿势对抗网络的人脸视频生成方法及系统

    公开(公告)号:CN118379777B

    公开(公告)日:2024-11-22

    申请号:CN202410807403.0

    申请日:2024-06-21

    Applicant: 华侨大学

    Abstract: 本发明公开了一种基于姿势对抗网络的人脸视频生成方法及系统,涉及图像处理技术领域,方法包括:构建人脸视频生成模型,包括图像编码器、音频编码器、头部运动预测模块、姿势编码器和解码器,所述人脸视频生成模型接收人脸图像和语音音频,生成人脸说话视频;获取训练数据集并对人脸视频生成模型进行预训练;构建唇型同步判别器作为判别器,对预训练人脸视频生成模型进行生成对抗训练;利用训练好的人脸视频生成模型实现人脸视频生成。本发明利用音频信号的动态特性对头部运动进行建模,并结合生成对抗网络与唇型同步判别器提高人脸视频的唇形同步精度,同时兼顾视频的逼真度,使得其更加真实、自然,从而为各种应用场景提供了更多的灵活性。

    一种基于联合特征的MIV沉浸式视频率失真优化方法

    公开(公告)号:CN118381920B

    公开(公告)日:2024-09-17

    申请号:CN202410807401.1

    申请日:2024-06-21

    Applicant: 华侨大学

    Abstract: 本发明公开了一种基于联合特征的MIV沉浸式视频率失真优化方法,涉及视频编码领域,包括:计算像素的几何失真权重;将帧内划分为纹理区域与深度区域,提取纹理区域的纹理复杂度特征、纹理区域的边缘特征和深度区域的边缘特征,自适应融合纹理区域的边缘特征和深度区域的边缘特征以得到融合边缘特征;使用纹理复杂度特征与融合边缘特征组成的联合特征,计算得到纹理区域的失真度量缩放因子与深度区域的失真度量缩放因子;根据纹理区域的失真度量缩放因子、失真度量缩放因子和几何失真权重计算新拉格朗日乘子;基于新拉格朗日乘子实现沉浸式视频的率失真优化。本发明可以使得最终渲染的沉浸式视频具有更好的渲染质量与率失真性能。

    一种基于强感知Transformer架构的缺损视频修复方法及系统

    公开(公告)号:CN118469876A

    公开(公告)日:2024-08-09

    申请号:CN202410912771.1

    申请日:2024-07-09

    Applicant: 华侨大学

    Abstract: 本发明公开了一种基于强感知Transformer架构的缺损视频修复方法及系统,涉及视频处理技术领域,方法包括以下步骤:特征提取模块接收待修复的缺损视频帧序列,采用卷积神经网络对视频帧进行特征提取,输出第一特征;强感知Transformer模块接收第一特征,采用交叉堆叠的局部感知Transformer和全局感知Transformer结构对第一特征进行纹理信息建模和结构信息建模,输出第二特征;重构模块接收第二特征,采用反卷积层进行视频帧重建,输出修复后视频帧序列。本发明采用交叉堆叠的局部感知Transformer和全局感知Transformer进行纹理信息和结构信息建模,有效解决现阶段缺损视频修复方法中存在修复区域缺乏细节纹理、全局结构与局部纹理不匹配的问题,实现更好的修复效果。

Patent Agency Ranking