双支路互融合的图像分类方法

    公开(公告)号:CN114898149B

    公开(公告)日:2025-04-29

    申请号:CN202210511831.X

    申请日:2022-05-11

    Abstract: 本发明公开了一种双支路互融合的图像分类方法,涉及图像分类处理技术领域,包括:获取原始数据集,并从中读取第一图像和第二图像,以及部分区域标注的类标图;将第一图像和第二图像进行配准,对配准后的第一图像和第二图像融合,获取第一图像张量和第二图像张量;对第一图像张量和第二图像张量预处理,并选取训练集和测试集;基于训练集训练预设的分类模型,构建分类模型的损失函数;基于分类模型对训练集进行分类,将分类结果与部分区域标注的类标图对比求解损失,并采用反向传播以优化分类模型;基于分类模型对测试集中的像素进行分类,获取测试集中像素的类别。本申请能够提高分类模型的分类质量。

    基于归一化指数和多尺度模型的遥感图像分割方法

    公开(公告)号:CN110176005B

    公开(公告)日:2023-03-24

    申请号:CN201910407115.5

    申请日:2019-05-16

    Abstract: 本发明公开了一种基于归一化指数和多尺度模型的遥感图像分割方法,主要解决现有方法数据利用率低以及分割精度低的问题,其实施方案为:1)对数据预处理生成多尺度多通道数据集;2)利用多尺度数据训练分割网络,得到两个多尺度分割模型;3)用两个多尺度分割模型生成待检测图片的第一分割结果和第二分割结果;4)利用多通道数据计算水体归一化指数,根据设定的阈值用水体归一化指数生成第三分割结果;5)融合叠加三个分割结果,并对融合后的结果进行边界优化和形态学处理,得到最终分割结果。本发明提高了对遥感图像的分割精度,提升了对遥感图像信息的利用效率,可应用于对目标的分割或识别。

    基于自步双向对抗学习的融合遥感图像分类方法

    公开(公告)号:CN114913368A

    公开(公告)日:2022-08-16

    申请号:CN202210461977.8

    申请日:2022-04-28

    Abstract: 本发明涉及一种基于自步双向对抗学习的融合遥感图像分类方法,包括获取第一MS图、第一PAN图;根据第一MS图、第一PAN图得到第一MS图像块、第一PAN图像块;将第一MS图像块和第一PAN图像块输入对抗网络得到第二MS图和第二PAN图;根据第一MS图、第一PAN图、第二MS图和第二PAN图得到统一大小的第三MS图像块、第三PAN图像块、第四MS图像块和第四PAN图像块;将三元组输入分类网络,对得到的损失函数整合在一起,基于自步学习的训练策略,得到训练好的分类网络;利用训练好的分类网络对待分类的图像进行分类得到分类结果。本发明采用自步学习的学习训练策略,让网络在难易样本中先后对易样本和难样本进行训练,使整个网络的训练变得平滑且迅速,提高网络效率。

    基于自适应通道的双支路互融合的图像分类方法

    公开(公告)号:CN114898149A

    公开(公告)日:2022-08-12

    申请号:CN202210511831.X

    申请日:2022-05-11

    Abstract: 本发明公开了一种基于自适应通道的双支路互融合的图像分类方法,涉及图像分类处理技术领域,包括:获取原始数据集,并从中读取第一图像和第二图像,以及部分区域标注的类标图;将第一图像和第二图像进行配准,对配准后的第一图像和第二图像融合,获取第一图像张量和第二图像张量;对第一图像张量和第二图像张量预处理,并选取训练集和测试集;基于训练集训练预设的分类模型,构建分类模型的损失函数;基于分类模型对训练集进行分类,将分类结果与部分区域标注的类标图对比求解损失,并采用反向传播以优化分类模型;基于分类模型对测试集中的像素进行分类,获取测试集中像素的类别。本申请能够提高分类模型的分类质量。

    基于视差图和多尺度深度网络模型的遥感图像分割方法

    公开(公告)号:CN110163213A

    公开(公告)日:2019-08-23

    申请号:CN201910407103.2

    申请日:2019-05-16

    Abstract: 本发明公开了一种基于视差图和多尺度深度网络模型的遥感图像分割方法,主要解决现有遥感图像分割方法分割精度较低和鲁棒性较弱的问题,其实现方案为:读入数据集,生成遥感图像分割的训练数据集;构建多尺度融合的分割网络模型;用训练数据集训练分割网络模型,并保存7个不同迭代次数的模型;用保存的分割网络模型得到7种不同的分割结果图;对7种不同的分割结果图进行多数投票,并对对投票后的结果图进行超像素处理,得到初步分割结果图;用SGBM算法获得测试场景的视差图;用视差图优化初步分割结果图,得到最终的分割结果。本发明相比于现有方法明显地提高了分割精度和鲁棒性,可广泛应用于城乡规划、智能城建。

    基于视差图和多尺度深度网络模型的遥感图像分割方法

    公开(公告)号:CN110163213B

    公开(公告)日:2022-12-06

    申请号:CN201910407103.2

    申请日:2019-05-16

    Abstract: 本发明公开了一种基于视差图和多尺度深度网络模型的遥感图像分割方法,主要解决现有遥感图像分割方法分割精度较低和鲁棒性较弱的问题,其实现方案为:读入数据集,生成遥感图像分割的训练数据集;构建多尺度融合的分割网络模型;用训练数据集训练分割网络模型,并保存7个不同迭代次数的模型;用保存的分割网络模型得到7种不同的分割结果图;对7种不同的分割结果图进行多数投票,并对对投票后的结果图进行超像素处理,得到初步分割结果图;用SGBM算法获得测试场景的视差图;用视差图优化初步分割结果图,得到最终的分割结果。本发明相比于现有方法明显地提高了分割精度和鲁棒性,可广泛应用于城乡规划、智能城建。

    基于归一化指数和多尺度模型的遥感图像分割方法

    公开(公告)号:CN110176005A

    公开(公告)日:2019-08-27

    申请号:CN201910407115.5

    申请日:2019-05-16

    Abstract: 本发明公开了一种基于归一化指数和多尺度模型的遥感图像分割方法,主要解决现有方法数据利用率低以及分割精度低的问题,其实施方案为:1)对数据预处理生成多尺度多通道数据集;2)利用多尺度数据训练分割网络,得到两个多尺度分割模型;3)用两个多尺度分割模型生成待检测图片的第一分割结果和第二分割结果;4)利用多通道数据计算水体归一化指数,根据设定的阈值用水体归一化指数生成第三分割结果;5)融合叠加三个分割结果,并对融合后的结果进行边界优化和形态学处理,得到最终分割结果。本发明提高了对遥感图像的分割精度,提升了对遥感图像信息的利用效率,可应用于对目标的分割或识别。

    基于自步双向对抗学习的融合遥感图像分类方法

    公开(公告)号:CN114913368B

    公开(公告)日:2024-08-20

    申请号:CN202210461977.8

    申请日:2022-04-28

    Abstract: 本发明涉及一种基于自步双向对抗学习的融合遥感图像分类方法,包括获取第一MS图、第一PAN图;根据第一MS图、第一PAN图得到第一MS图像块、第一PAN图像块;将第一MS图像块和第一PAN图像块输入对抗网络得到第二MS图和第二PAN图;根据第一MS图、第一PAN图、第二MS图和第二PAN图得到统一大小的第三MS图像块、第三PAN图像块、第四MS图像块和第四PAN图像块;将三元组输入分类网络,对得到的损失函数整合在一起,基于自步学习的训练策略,得到训练好的分类网络;利用训练好的分类网络对待分类的图像进行分类得到分类结果。本发明采用自步学习的学习训练策略,让网络在难易样本中先后对易样本和难样本进行训练,使整个网络的训练变得平滑且迅速,提高网络效率。

    基于深度网络及语义信息的遥感图像双目立体匹配方法

    公开(公告)号:CN110197505A

    公开(公告)日:2019-09-03

    申请号:CN201910460715.8

    申请日:2019-05-30

    Abstract: 本发明公开了一种基于深度网络及语义信息的遥感图像双目立体匹配方法,主要解决现有遥感图像的立体匹配精度低的问题。其实现过程是:1)收集US3D数据集遥感图像;2)用训练语义分割网络模型获取遥感图像的语义先验;3)用深度网络模型对遥感图像进行立体匹配;4)用传统SGBM算法对遥感图像进行立体匹配;5)用语义先验对3)和4)这两次的匹配结果进行融合,得到融合后的视差图像;6)对融合后的视差图形进行去噪;7)用语义先验对6)去噪后的图形进行修正,得到双目立体匹配结果。本发明相比已有技术,提高了遥感图像双目立体匹配的精度,可用于遥感图像的三维空间立体重建。

Patent Agency Ranking