一种基于K-means聚类拟合的显著性检测优化方法

    公开(公告)号:CN107330431A

    公开(公告)日:2017-11-07

    申请号:CN201710522004.X

    申请日:2017-06-30

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于K-means聚类拟合的显著性检测优化方法,包括以下步骤:步骤S1:提取图像的场景GIST特征;步骤S2:提取图像的颜色直方图特征;步骤S3:根据场景GIST特征和颜色直方图特征计算图像间的相似性;步骤S4:根据图像间的相似性对图像集合进行K-means聚类,分成k个相互独立的图像簇;步骤S5:计算每个图像簇的拟合模型;步骤S6:判断新的输入图像所属的图像簇,将该图像簇的拟合模型作用在输入图像的显著性图上进行优化。该方法适用于多种显著性检测算法的优化,优化效果明显。

    一种基于多尺度特征融合和极限学习机的种子识别方法

    公开(公告)号:CN105139023A

    公开(公告)日:2015-12-09

    申请号:CN201510438672.5

    申请日:2015-07-24

    Applicant: 福州大学

    CPC classification number: G06K9/6256 G06K9/627

    Abstract: 本发明涉及一种基于多尺度特征融合和极限学习机的种子识别方法,通过对样本种子图像的多尺度局部HOG特征以及全局分布的HSV特征进行融合提取,利用ELM极限学习机进行特征训练,得出集成分类模型,对待测试的种子图像采用滑动窗口机制,对其进行多尺度的融合特征提取,并将结果输入到该模型中,并通过对分类结果进行加权投票表决,进而得出待测试种子图像的分类信息。本发明所提出的一种基于多尺度特征融合和极限学习机的种子识别方法,简单灵活,设备要求简单,并且具有较强的实用性。

    基于全局-局部注意力交互机制显著性目标检测的方法

    公开(公告)号:CN120047675A

    公开(公告)日:2025-05-27

    申请号:CN202510223350.2

    申请日:2025-02-27

    Applicant: 福州大学

    Inventor: 郭文忠 林锋 柯逍

    Abstract: 本发明涉及一种基于全局‑局部注意力交互机制显著性目标检测的方法,属于计算机视觉领域。所述方法,通过对骨干网络再编码使得网络可以更加关注更具代表性的特征,同时减少对于不重要信息的关注,并通过代理支流预融合的方式结合RGB图信息和深度图信息,再通过全局‑局部注意力机制使模型能够兼备全局注意力机制的获取全局上下文信息能力和局部注意力机制丰富显著性目标细节语义信息能力,最后使用全新的解码器机制,通过多尺度聚合处理和自适应强度损失函数提升模型精确度,使其更加精确定位显著性目标区域。本发明方法能够在尽量不损失准确率的前提下,提升显著性目标检测的效率。

    令牌压缩与双向非对称匹配的多模态查询图像检索方法

    公开(公告)号:CN116910287B

    公开(公告)日:2025-05-16

    申请号:CN202310867102.2

    申请日:2023-07-14

    Applicant: 福州大学

    Abstract: 本发明提出令牌压缩与双向非对称匹配的多模态查询图像检索方法,包括以下步骤;步骤S1:将输入图像分块并分别编码,将输入文本利用词嵌入转化为令牌序列;对序列化的数据进行令牌压缩与编码;步骤S2:对得到的融合上下文的图像模态和文本模态令牌序列加上额外的融合令牌,并再次进行令牌压缩与编码;步骤S3:对使用步骤S2得到的单模态与融合模态特征表示进行正向的精确匹配与反向的模糊匹配,利用匹配结果指导神经网络学习过程。步骤S4:进行神经网络的训练,保留最好的模型权重用于计算测试集数据的特征表示,实现组合查询图像检索;本发明能够对多模态查询语义进行充分融合,充分利用多模态数据的相关性和互补性实现更全面更精细的图像检索。

    基于解耦特征引导的多模态文本页面分类方法

    公开(公告)号:CN115761757B

    公开(公告)日:2025-05-09

    申请号:CN202211374707.X

    申请日:2022-11-04

    Applicant: 福州大学

    Inventor: 柯逍 许培荣

    Abstract: 本发明涉及一种基于解耦特征引导的多模态文本页面分类方法,包括以下步骤:获取电子文本页面数据构建训练集,并基于训练集训练双流的端到端Transformer编码网络,所述双流的端到端Transformer编码网络包括视觉特征提取器、语言特征提取器和跨模态融合编码器;将待分类的电子文本页面的文本数据输入语言特征提取器获得深层语言特征;将待分类的电子文本页面的图像数据输入视觉特征提取器获得深层视觉特征;将得到的深层语言特征和深层视觉特征共同输入跨模态融合编码器获得多模态特征,并用于分类网络进行分类。本发明能够有效地通过多模态方法对电子文本页面进行准确分类。

    基于模态特异自适应缩放与注意力网络的跨模态检索方法

    公开(公告)号:CN115080699B

    公开(公告)日:2025-01-07

    申请号:CN202210787446.8

    申请日:2022-07-04

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于模态特异自适应缩放与注意力网络的跨模态检索方法。首先对图像模态采用带残差空间缩减的Transformer编码器,对文本模态采用单词级特征注意力模块,分别进行模态不变特征的提取。然后使用模态嵌入级特征注意力模块进行模态干扰特征的过滤。接着采用融合先验知识的自适应缩放网络将特征映射到一个多模态公共子空间进行模态公共特征学习。最后利用表现最好的网络权重计算新的待查询、待检索数据的多模态公共子空间特征,进行类别级重排序,返回最终的跨模态数据检索。本发明能够有效的对多模态数据进行建模,高效准确地完成多模态场景下的跨模态检索任务。

    一种基于域自适应性与纹理正则化的自监督姿态估计方法

    公开(公告)号:CN118941852A

    公开(公告)日:2024-11-12

    申请号:CN202410976477.7

    申请日:2024-07-20

    Applicant: 福州大学

    Inventor: 柯逍 黄森敏

    Abstract: 本发明提出一种基于域自适应性与纹理正则化的自监督姿态估计方法,包括以下步骤:步骤S1:在EfficientPose姿态估计器的基础上,在每个级联操作上采用通道增强模块为每个通道分配不同的权重,对每个特征通道进行自适应增强;步骤S2:采用图像级和实例级的多级域自适应模块学习域不变特征,使用H‑散度衡量不同分布样本差异;步骤S3:采用基于熵的对齐方法最小化源域与目标域之间的表示嵌入距离,捕捉视觉代表性特征;步骤S4:采用纹理正则化提高模型对姿态变化的敏感性,最终完成姿态估计识别。

    一种基于尺度匹配与语义增强的跨域小样本目标检测方法

    公开(公告)号:CN118941851A

    公开(公告)日:2024-11-12

    申请号:CN202410976440.4

    申请日:2024-07-20

    Applicant: 福州大学

    Inventor: 柯逍 陈秋琴

    Abstract: 本发明提出一种基于尺度匹配与语义增强的跨域小样本目标检测方法,对于输入的待检测图像,首先根据教师网络和学生网络的输入不同进行了差异化的数据增强。然后对跨域尺度形状进行优化匹配,从跨域的角度入手解决了不同域的情况下的尺度形状影响检测精度的问题。然后利用语义空间对数据样本进行插值或外推,来生成新的数据样本,从而对数据进行扩充,解决了跨域小样本目标检测所存在的数据稀缺性的问题。最后,进行知识蒸馏,将教师模型作为最后的训练模型,其输出结果为最后的检测结果。

    一种基于模型样本匹配的领域泛化方法

    公开(公告)号:CN118779669A

    公开(公告)日:2024-10-15

    申请号:CN202410988490.4

    申请日:2024-07-23

    Applicant: 福州大学

    Inventor: 柯逍 卞永亨

    Abstract: 本发明提供一种基于模型样本匹配的领域泛化方法,包括以下步骤:步骤S1:获取数据集,并通过线性标签空间变换将预训练模型的预测适应目标域;步骤S2:通过模型特性的匹配网络,动态推荐适当的预训练模型来预测每个测试样本;步骤S3:通过损失函数,提高模型收敛的稳定性。

    基于多尺度特征融合注意力的实时动作检测方法

    公开(公告)号:CN115131710B

    公开(公告)日:2024-09-03

    申请号:CN202210785189.4

    申请日:2022-07-05

    Applicant: 福州大学

    Inventor: 柯逍 缪欣

    Abstract: 本发明涉及一种基于多尺度特征融合注意力的实时动作检测方法,首先对数据集视频片段进行帧集划分,通过随机排序操作对其进行数据增强。其次,对输入视频片段进行关键帧的提取,获得的关键帧进行光流信息的提取。将获取到视频片段、关键帧以及关键帧光流分别输入ResNext101以及Darknet网络进行特征提取,并通过多尺度特征融合注意力模块对特征进行增强,拼接时空特征通过通道注意力进一步融合时空特征,最后通过分类以及回归得到类别边界框以及置信度,经过NMS(非极大值抑制),得出预测结果。

Patent Agency Ranking