一种面向道路场景的多尺度双流融合实时语义分割方法

    公开(公告)号:CN119888222A

    公开(公告)日:2025-04-25

    申请号:CN202411912504.0

    申请日:2024-12-24

    Abstract: 本发明涉及一种面向道路场景的多尺度双流融合实时语义分割方法,属于语义分割领域。该方法包括:获取驾驶道路场景下的图像数据集;按比例将数据划分并进行数据增强;搭建双流融合网络模型;利用数据集对模型进行训练、验证和测试,选择效果最优模型获取语义分割结果。图像分别由空间分支和语义分支提取特征,空间分支引入由空间可分离卷积和深度可分离卷积结合的残差基本块,减少参数量,语义分支引入级联空洞卷积和小波下采样特征提取,扩张特征图感受野,融合策略采用优化注意力加权方式,提取更有效的空间和通道信息,改进新的特征金字塔池化结构,加强模型泛化性。该方法在保证实时性的同时提高分割精度,确保计算复杂度和精度的平衡。

    一种面向高分辨率遥感图像的多尺度双分支语义分割方法

    公开(公告)号:CN119888221A

    公开(公告)日:2025-04-25

    申请号:CN202411912501.7

    申请日:2024-12-24

    Abstract: 本发明涉及一种面向高分辨率遥感图像的多尺度双分支语义分割方法,属于计算机技术领域。该方法包括:采集数据集并预处理;构建浅层特征提取融合模块,该模块通过双分支结构的ResNet分别处理VIS和DSM数据,利用卷积层提取特征后经特征融合模块融合,能充分挖掘不同数据源特征并融合;构建深层特征提取融合模块,该模块的SCSA层结合通道与空间注意力处理特征图,跨模态自注意力层计算跨模态注意力并融合结果;接着构建级联解码器,再用训练集训练网络,最后用测试集测试网络。该方法解决了高分辨率遥感图像语义分割中地物特征复杂多样、空间分布不均及VIS和DSM数据信息融合不充分等问题。

    一种基于YOLOv5的遥感小目标检测方法

    公开(公告)号:CN119206181A

    公开(公告)日:2024-12-27

    申请号:CN202411323704.2

    申请日:2024-09-23

    Abstract: 本发明涉及一种基于YOLOv5的遥感小目标检测方法,属于目标检测领域,包括:S1:采集并预处理数据集,划分为训练集、验证集和测试集;S2:将数据集中的标签文件转换为YOLOv5格式;S3:创建数据集的配置文件;S4:构建RStargetNet网络:以YOLOv5网络为基础,使用VanillaNet作为骨干网络,加入SENet通道注意力机制,置信度损失和类别损失采用BCEloss,定位损失采用CIoUloss;S5:对RStargetNet网络进行训练、验证和测试,得到最优模型;S6:利用最优模型对输入网络中的图片进行预测,获得各个检测目标的类别名称、置信度分数和目标框坐标信息,并展示在图片中。

    基于多尺度注意力和双编码器的遥感图像语义分割方法

    公开(公告)号:CN117496151A

    公开(公告)日:2024-02-02

    申请号:CN202311529262.2

    申请日:2023-11-16

    Abstract: 本发明涉及基于多尺度注意力和双编码器的遥感图像语义分割方法,属于遥感图像语义分割技术领域。将Swin Transformer嵌入到基于CNN的残差网络中,形成并行的双编码器。关系聚合模块作为桥梁传递信息,利用全局特征引导主编码器获得更多的判别特征。通过具有高效通道注意力模块的多尺度跳跃连接,以利用多尺度特征并获得通道间的关系。位置注意力模块,获取任意两个位置特征图之间的空间依赖性,提高类内相关性和语义一致性。搭建基于多尺度注意力和双编码器的遥感图像语义分割网络模型。本发明有效的改善了语义分割中类内差异大,类间差异小等问题,显著得提高了语义分割模型的性能。

Patent Agency Ranking