基于空谱融合与模型学习耦合的叶绿素a浓度反演方法

    公开(公告)号:CN114330530B

    公开(公告)日:2025-05-09

    申请号:CN202111597460.3

    申请日:2021-12-24

    Applicant: 安徽大学

    Abstract: 本发明涉及水质参数遥感反演领域,公开了基于空谱融合与模型学习耦合的叶绿素a浓度反演方法,通过获取相同日期MODIS和Sentinel‑2数据,经过预处理,得到样本数据集;构建面向叶绿素a浓度反演的MODIS和Sentinel‑2空‑谱融合深度学习网络,并耦合光谱响应函数、影像退化模型等物理约束,从而获得具有MODIS光谱分辨率和Sentinel‑2空间分辨率的融合数据,为叶绿素a浓度反演提供高空谱分辨率数据源;结合实地采样数据与融合的高空谱分辨率数据,在梯度提升树等机器学习的水质反演算法下验证融合的有效性,结果表明本处理方法有效提高了叶绿素a浓度的反演精度。

    基于SAM多阶微调的遥感影像土地分类方法

    公开(公告)号:CN119494988A

    公开(公告)日:2025-02-21

    申请号:CN202411852452.2

    申请日:2024-12-16

    Applicant: 安徽大学

    Abstract: 本发明属于遥感语义分割信息提取技术领域,具体涉及一种基于SAM多阶微调的遥感影像土地分类方法。本发明方法能够提高遥感多分类精度与泛化能力,首先基于国产高分系列影像通过目视解译构建样本数据集;并在此基础上,利用SAM编码器强大的特征提取能力设计网络,设计了域偏移适配模块与深度低秩适配模块,并改进原始SAM的掩码生成部分,对SAM进行三阶段适配微调,以增强网络对遥感图像的特征提取能力,提升模型性能。本发明在应用上,取得具有实用价值的遥感土地利用覆盖多分类技术,以期切实地推进大模型在遥感图像语义分割多分类中的应用与发展。

    基于多特征融合深度学习的无人机遥感建筑物提取方法

    公开(公告)号:CN114494868B

    公开(公告)日:2022-11-22

    申请号:CN202210061551.3

    申请日:2022-01-19

    Applicant: 安徽大学

    Inventor: 杨辉 王彪 吴艳兰

    Abstract: 本发明公开了摄影测量处理技术领域的基于多特征融合深度学习模型的无人机遥感建筑物智能提取方法,以“如何利用深度学习,模拟人眼立体视觉中建筑物多特征表达形式”为核心,研究基于孪生网络的DSM(数字表面模型)与DOM(数字正射影像)的多特征融合方法,设计建筑物多特征的特征抽取、分析能力,通过密集注意力机制进一步增强建筑物的特征传递和累积整合特性,将原来使用的单网络结构变为使用对称网络结构,并且两个对称网络结构完全相同,并结合注意力机制,构建混合模型,深度挖掘无人机遥感建筑物的多层次、多维度的特征和空间关系,实现顾及建筑物多层次特征的无人机遥感建筑物自动提取新方法。

    一种基于深度学习的遥感数据水华提取方法

    公开(公告)号:CN114332619A

    公开(公告)日:2022-04-12

    申请号:CN202111649260.8

    申请日:2021-12-30

    Applicant: 安徽大学

    Abstract: 本发明公开了定量遥感数据处理技术领域的一种基于深度学习的遥感数据水华提取方法,首先对遥感数据进行预处理,其次,利用湖泊矢量或者MNDWI指数进行湖泊区域裁剪,紧接着,构建湖泊的水华数据集,以及U‑Net网络模型结构,最后,通过训练集不断的迭代优化模型,并通过测试集测试获得更为稳定的水华提取深度学习模型;后续,在此基础上开展遥感数据水华提取相关应用;本发明充分利用了遥感数据的空间和光谱信息,且利用了多年间湖泊水华数据,在精度、效率以及泛华能力优于其他方法,同时具有较好迁移效果;模型优化后,不需要任何辅助数据,易于实现,实用价值高,可用于长时序的湖泊遥感水华监测等业务化运行。

    基于多特征整合深度学习模型的倾斜摄影点云分类方法

    公开(公告)号:CN110110621B

    公开(公告)日:2022-03-08

    申请号:CN201910329481.3

    申请日:2019-04-23

    Applicant: 安徽大学

    Inventor: 吴艳兰 杨辉 王彪

    Abstract: 本发明公开了摄影测量数据处理技术领域的基于多特征整合深度学习模型的倾斜摄影点云分类方法,首先,通过研究顾及视觉注意力机制的点云分类优化,实现点云立体视觉注意特征分析方法,以及基于深度学习的立体目标视觉注意力评估方法,并进行识别目标注意力强弱评估与排序;其次,利用立体视觉注意力机制,对待识别的倾斜摄影点云进行点云过滤,开展点云初级特征描述及自学习子模型研究;最后,经过点云场景相对于待识别目标的视觉注意力机制过滤后的点云作为待识别点云;本发明在应用上,取得具有实用价值的倾斜摄影实景点云分类技术,以期切实地推进倾斜摄影应用由“可视化”向“可计算”方向发展。

    一种基于深度全连接网络的Himawari-8大气气溶胶反演方法

    公开(公告)号:CN111079835A

    公开(公告)日:2020-04-28

    申请号:CN201911294229.X

    申请日:2019-12-16

    Applicant: 安徽大学

    Inventor: 吴艳兰 杨辉 江鹏

    Abstract: 本发明公开了气溶胶遥感技术领域的一种基于深度全连接网络的Himawari-8大气气溶胶反演方法,首先获取Himawari-8静止卫星的NetCDF4格式的遥感影像数据,获得反演模型所需的因变量数据集,其次,获取Himawari-8影像对应时间的AERONET站点1.5等级去云和质量控制的气溶胶产品数据,获得反演模型所需的自变量数据,接着,用整理好的数据集进行深度全连接网络的深度学习模型构建,并进行模型参数设置,用以获取Himawari-8遥感影像数据和地面AERONET站点气溶胶数据之间的关系,构建气溶胶反演模型,最后,将训练得到的深度全连接反演模型应用与监测点上空的Himawari-8遥感影像,得到对应监测位置的AOD反演结果;本发明气溶胶反演过程无需引入其他辅助数据,使其反演过程误差减少,提高AOD反演精度。

    一种基于手机视频的道路病害智能检测方法

    公开(公告)号:CN108898085A

    公开(公告)日:2018-11-27

    申请号:CN201810637986.1

    申请日:2018-06-20

    Applicant: 安徽大学

    Abstract: 本发明公开了道路检测技术领域的一种基于手机视频的道路病害智能检测方法,包括以下步骤:第一步、采集道路病害图像,制作成不同类型的道路病害训练样本集,构建一个深度学习网络,对搜集的样本进行训练,得到一个好的深度学习模型;第二步、用手机采集具有GPS信息的视频,并将视频分割成不同时间序列的图像;第三步、将采集的视频图像代入训练好的模型中,识别出不同类型的道路病害,同时利用语义分割提取道路病害的矢量边界以及相应图像中像素坐标;第四步、对手机参数进行标定,获取单目视觉量测的计算参数,根据获取道路病害边界的像素坐标,计算道路病害的尺寸、面积、实际位置等信息;本发明适用于更多道路病害类型、准确度高。

    一种云类别自动识别方法及系统

    公开(公告)号:CN108846334A

    公开(公告)日:2018-11-20

    申请号:CN201810542454.X

    申请日:2018-05-30

    Applicant: 安徽大学

    Abstract: 本发明公开了数字图像识别和深度学习技术领域的一种云类别自动识别方法及系统,包括数据采集模块、云图识别模块、云图结果展示模块和模型构建模块,所述云图结果展示模块分别信号连接数据采集模块、云图识别模块和模型构建模块,通过在密集连接卷积网络(Dense Net)的基础上,提出一种改进的Dense Net,结合手机APP开发和摄像头监测视频处理等技术,解决了由于云的种类繁多,部分提取的特征针对性较强,难以从海量的云图数据中提取有效的特征,不能充分挖掘不同云图之间的内在联系的问题,结构简单,效率提高。

Patent Agency Ranking