-
公开(公告)号:CN118096718A
公开(公告)日:2024-05-28
申请号:CN202410345619.X
申请日:2024-03-25
Applicant: 福州大学
Abstract: 本发明提供一种面向红外睑板腺图像的不确定性估计涂鸦监督分割方法,以学生教师模型为基础,设计了伪标签生成与不确定性估计两大组成模块。其中,学生模型利用涂鸦标签对模型预测进行监督、引导,考虑到由涂鸦监督所带来的监督信息不足的问题,引入了伪标签生成模块进行模型预测集成融合来充实模型信息。鉴于伪标签中包含较多的噪声,直接使用伪标签将损害模型性能,设计了不确定性估计模块,有效的过滤伪标签中的噪声与错误。不确定性估计模块中过滤掉的信息可能也包含着一些有用的隐式信息,因此引入教师模型来充分利用此类信息;有效解决了使用传统精细标签所带来的高成本问题。
-
公开(公告)号:CN116363118A
公开(公告)日:2023-06-30
申请号:CN202310414902.9
申请日:2023-04-18
Applicant: 福州大学
IPC: G06T7/00 , G06T7/10 , G06V10/764 , G06V10/774 , G06V10/82 , G06T5/40 , G06N3/0464 , G06N3/08
Abstract: 本发明提供了基于伪标签与深度特征交叉引导的睑板腺体图像分割方法,包括以下步骤:步骤S1:数据集处理;即对睑板腺体图像数据集进行划分和预处理,该数据集包含有标签数据和无标签数据;步骤S2:伪标签交叉引导;步骤S3:深度特征交叉引导;在分割网络的编码器深层设置一个辅助分支模块,对模型编码器深层的输出进行降维;编码器的浅层卷积进行监督约束,使两个模型的编码器部分进行深度特征交叉引导;应用本技术方案能够训练网络关注图像的边缘信息和语义信息,获取更为全面的特征描述,减少模型对标注数据量的依赖,最终获得更好的分割结果。
-
公开(公告)号:CN118890582A
公开(公告)日:2024-11-01
申请号:CN202410910205.7
申请日:2024-07-08
Applicant: 福州大学
IPC: H04R3/00
Abstract: 本发明提供一种基于虚拟阵列的两阶段主瓣宽度可变波束形成方法,以差分麦克风阵列作为基本单元,由多个差分麦克风阵列组成更大阵列的平面差分波束形成器;波束形成分为两个阶段:首先差分麦克风阵列单元使用MMSE波束形成方法进行基本的差分波束形成,并采用基于Dolph‑Chebyshev多项式的形式的目标方向性图案,使主瓣宽度和旁瓣级可控;再通过组合多个差分麦克风阵列单元的输出进一步提升波束形成的性能;将多个差分麦克风阵列单元进行线性组合并视为虚拟的平面阵列,则全局阵列的导向向量视为差分麦克风阵列单元的导向向量与虚拟阵列导向向量的克罗内克积,全局波束形成器采用基本差分波束形成器和对应于虚拟阵列的波束形成器的克罗内克积。
-
公开(公告)号:CN119992269A
公开(公告)日:2025-05-13
申请号:CN202510067194.5
申请日:2025-01-16
Applicant: 福州大学
IPC: G06V10/80 , G06V10/764 , G06V10/20 , G06V10/40 , G06V20/10
Abstract: 本发明提出一种基于Mamba结构的高光谱和LiDAR数据自适应融合协同分类方法。首先,利用双分支深度特性提取架构提取HSI数据的空间‑光谱联合特征以及LiDAR数据的高程语义信息。随后,通过空间上下文标记器进行特征聚合并优化空间表示。在特征融合阶段,通过基于Mamba结构的双通道协同注意力模块DCCAM来捕获全局依赖关系,同时利用参数共享确保异构特征的一致性,最后通过自适应融合模块AF有效地整合了多源特征,增强了信息的联合表示。相比已有的多模态遥感图像分类算法,本发明方法能够实现更高的分类精度并显著提升计算效率。
-
公开(公告)号:CN116363118B
公开(公告)日:2025-05-09
申请号:CN202310414902.9
申请日:2023-04-18
Applicant: 福州大学
IPC: G06T7/00 , G06T7/10 , G06V10/764 , G06V10/774 , G06V10/82 , G06T5/40 , G06N3/0464 , G06N3/08
Abstract: 本发明提供了基于伪标签与深度特征交叉引导的睑板腺体图像分割方法,包括以下步骤:步骤S1:数据集处理;即对睑板腺体图像数据集进行划分和预处理,该数据集包含有标签数据和无标签数据;步骤S2:伪标签交叉引导;步骤S3:深度特征交叉引导;在分割网络的编码器深层设置一个辅助分支模块,对模型编码器深层的输出进行降维;编码器的浅层卷积进行监督约束,使两个模型的编码器部分进行深度特征交叉引导;应用本技术方案能够训练网络关注图像的边缘信息和语义信息,获取更为全面的特征描述,减少模型对标注数据量的依赖,最终获得更好的分割结果。
-
公开(公告)号:CN119379655A
公开(公告)日:2025-01-28
申请号:CN202411527213.X
申请日:2024-10-30
Applicant: 福州大学
IPC: G06T7/00 , G06N3/0455 , G06N3/0464 , G06V10/44 , G06N3/048 , G06N3/047 , G06T7/10 , G06T7/12 , G06T7/136 , G06T7/11
Abstract: 本发明提出一种基于涂鸦模拟的交互式红外睑板腺图像分割方法;该方法设计了一种新型的多任务网络架构,接收多种交互信息(点击和涂鸦)作为输入,实现腺体分割,并预测其假阳性和假阴性区域用于指导模型进行涂鸦模拟。该方法采用二阶段网络训练策略,结合不确定性区域简化掩码以提高错误区域预测的准确性。对于每轮用户交互,该方法分两个阶段执行预测。第一阶段,网络基于用户点击输出粗略分割掩码及对应的假阳性和假阴性预测区域;第二阶段,模型基于这两个错误区域根据伪涂鸦生成策略模拟涂鸦以细化第一阶段输出的粗略分割掩码。对比现有方法,本方法能同时兼顾涂鸦的高效性和用户交互的简便性,进一步降低用户劳动成本。
-
公开(公告)号:CN118710905A
公开(公告)日:2024-09-27
申请号:CN202410841491.6
申请日:2024-06-27
Applicant: 福州大学
Abstract: 本发明涉及双模态融合与校正的遥感图像语义分割方法。首先多源高分光学图像和nDSM图像组成的样本对分别输入到网络的对应两个分支。模型的双分支结构对两个模态进行四个阶段的特征提取和通道与空间融合校正,产生阶段性增强特征与阶段性融合特征。第一个阶段的特征提取结果还用于模态互补边界的提取,以得到多尺度边界特征。多尺度边界特征和不同尺度的阶段性融合特征用于逐步的融合与上采样,以得到最终的语义分割结果与边界分割结果。本发明的模型能根据模态差异处理光学图像与nDSM数据,充分利用多模态互补信息实现特征校正与融合,细化边界,强化多尺度特征,有效缓解了高分遥感图像的语义分割任务中光谱混淆和类内差异大、类间差异小的问题。
-
公开(公告)号:CN118655523A
公开(公告)日:2024-09-17
申请号:CN202410909950.X
申请日:2024-07-08
Applicant: 福州大学
IPC: G01S5/22 , G06N3/0464 , G06N3/045 , G06N3/08 , G06F18/213 , G06F18/25
Abstract: 本发明提供一种基于频域动态卷积和Conformer的声源定位方法,首先对麦克风阵列捕获的多通道音频进行对数幅度谱和相位谱的计算,并进行串联融合。将融合后的特征输入CNN‑Conformer网络中,网络输出直接路径相位差,然后通过网络输出的直接路径相位差计算空间响应功率谱,最后对空间响应功率谱进行谱峰搜索得到最终的声源位置。本发明的模型将频域动态CNN和Conformer模块结合,能够释放卷积在频率维度上的平移等变性,缓解了时频谱图中不同频率对应相位差不同导致的定位误差,还可有效地捕获时频谱图中的时间‑频率模式和长期依赖关系。相比已有的CRNN模型,该方法拥有更强的空间特征捕获能力,能够有效提高声源定位精度。
-
公开(公告)号:CN117934848A
公开(公告)日:2024-04-26
申请号:CN202410135405.X
申请日:2024-01-31
Applicant: 福州大学
IPC: G06V10/26 , G06V20/70 , G06V20/10 , G06V10/10 , G06V10/40 , G06V10/80 , G06V10/77 , G06V10/771 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明涉及一种面向多源数据多区域尺度协同高分遥感图像语义分割方法。首先将经数据增强的多源高分光学图像和nDSM样本图像对分别输入到网络的高分空间分支、高分语义分支和nDSM空间分支,然后将两个数据源图像的空间特征进行拼接融合。最后,将融合特征经语义分割头上采样得到最终的分割结果。本发明的模型能使网络对于特征丰富,融合后的特征由于有nDSM图像的高程信息互补,缓解了高分光学图像中光谱混淆以及高分遥感图像固有的类内差异大,类间差异小造成语义分割难的问题。将融合特征应用于语义分割网络,相比已有的单源可见光图像分割方法和多源nDSM分割方法,该发明方法能够有效提高语义分割精度。
-
-
-
-
-
-
-
-