-
公开(公告)号:CN113327301B
公开(公告)日:2023-04-07
申请号:CN202110570222.7
申请日:2021-05-25
Applicant: 成都信息工程大学
IPC: G06T9/00 , G06T5/00 , G06N3/0442 , G06N3/0464 , G06N3/0475 , G06N3/08
Abstract: 本发明提供一种基于深度类比网络在多维度雷达数据下的强对流外推方法及系统,方法包括以下步骤:(1)特征图像编码:对多个雷达图像进行编码获得多个特征图像;(2)利用深度视觉类比网络学习所述多个雷达图像与所述多个特征图像,得到外推雷达图像;(3)将所述特征图像喂入外推网络得到外推特征图像;(4)利用优化器对所述外推特征图像与所述外推雷达图像进行第一次优化,再对第一次优化后的输出进行二次优化。该方法利用两个网络同时外推出雷达图像和基于编码的特征图像,再用优化器对它们分别做优化,最后在对双网络的输出做二次优化,优化了强对流外推的过程,得到的强对流预测图像也更加精确且方法简单易行。
-
公开(公告)号:CN113239722B
公开(公告)日:2022-08-30
申请号:CN202110345106.5
申请日:2021-03-31
Applicant: 成都信息工程大学
Abstract: 本发明提供一种基于深度学习在多尺度下的强对流外推方法与系统,方法包括以下步骤:接收雷达图像数据,提取所述雷达图像数据的隐含状态特征;对所述隐含状态特征进行卷积,并将卷积结果输入TrajGRU网络中,进行强对流外推得到雷达图;将所述雷达图进行第二次卷积并同时进行批正则化获得外推图像数据。该方法对雷达图像数据训练得到外推图像,用于强对流天气如暴雨、雷暴、冰雹等极端天气的预报。
-
公开(公告)号:CN114355482B
公开(公告)日:2022-08-16
申请号:CN202210002182.0
申请日:2022-01-04
Applicant: 成都信息工程大学
Abstract: 本发明公开了一种基于光流和气象数值预报的强对流天气识别方法及系统,其中方法主要体现在计算光流,搭建模型并训练模型,所述模型包括NWP stream模块和Optical flow模块,在训练器中输入的一次训练数据包含一个NWP数据以及所述NWP数据所对应的光流数据,其中光流数据的计算方法为:在数据集中根据样本数据的时间戳向前查找上一个时间戳所对应的数据集文件,基于这两个文件所对应的计算光流的函数,计算出对应的光流数据,NWP数据输入NWP stream模块的分支,光流数据输入Optical Flow模块的分支,所述NWP数据以及所述光流数据同时进行卷积运算,同时进行求导,在模型最后进行矩阵相加,输入SoftMax层得出最终结果。本发明可以实现强对流天气的细粒度分类。
-
公开(公告)号:CN111239852B
公开(公告)日:2021-09-07
申请号:CN202010032949.5
申请日:2020-01-13
Applicant: 成都信息工程大学
IPC: G01W1/00
Abstract: 本发明提供了一种利用风场数据自动识别高空横槽的方法,读取风场格点数据;选择分析点:取某一格点为分析点,其相邻的西南、正南以及东南的格点分别设为第一辅助分析点、第二辅助分析点以及第三辅助分析点;根据确定的分析点的三种情况进行分析,得到节点;设置阈值,遍历所有节点,根据所述阈值判定并标记为槽点;对比相邻槽点的位势高度;依次连接所述保留的槽点,从而完成横槽的自动识别。本发明解决了现有气象业务中的横槽分析依然通过人机交互的方式,由预报人员根据自身经验进行手工操作,存在一系列相关弊端的问题。本发明实现了在高空水平风场中自动分析横槽,为实现自动化分析预报打下坚实基础。
-
公开(公告)号:CN115359474A
公开(公告)日:2022-11-18
申请号:CN202210894321.5
申请日:2022-07-27
Applicant: 成都信息工程大学
IPC: G06V20/64 , G06V10/764 , G06V10/774 , G06V10/80 , G06V10/82
Abstract: 本发明公开一种适用于移动端的轻量级三维目标检测方法、装置及介质,所述方法包括:获取或制作用于3D目标检测的数据集;搭建模型,所述模型包括MobileViT block、三个分支和全连接层,所述MobileViT block与三个分支连接,各分支连接所述全连接层;基于所述数据集对搭建的模型进行训练;对训练后的模型进行处理得到onnx模型;将图像数据进行预处理并转换,输入至所述onnx模型中得到模型输出;基于模型输出,计算3D目标的全局方位角和3D检测框的多个顶点坐标,并绘制3D检测框和鸟瞰图。本发明同时拥有CNN和ViT相类似的属性和优点,以此可以用更少的参数学到更好的特征表示,从而实现移动端3D目标检测的任务。
-
公开(公告)号:CN114548595A
公开(公告)日:2022-05-27
申请号:CN202210202985.0
申请日:2022-03-03
Applicant: 成都信息工程大学
Abstract: 本发明公开了一种基于注意力机制的强对流天气物理特征量预测方法及系统,其中方法主要体现在搭建模型,所述模型包括注意力机制模块、编码模块以及解码模块,当输入数据进入到所述模型时,输入数据经过所述注意力机制模块,根据上一次的隐藏状态预测当前输入结果,将当前输入结果和当前输入数据叠加在一起并经过解码编码模块进行编码形成当前隐藏状态,将历史隐藏状态和当前隐藏状态相加后,通过所述解码模块解码后进行卷积生成预测结果。本发明有效解决了多维度、多输入的时空序列预测问题。
-
公开(公告)号:CN113344902B
公开(公告)日:2022-05-06
申请号:CN202110714050.6
申请日:2021-06-25
Applicant: 成都信息工程大学
IPC: G06T7/00 , G06T7/13 , G06T17/00 , G06V10/774 , G06V10/764 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明公开一种基于深度学习的强对流天气雷达图识别方法,首先根据雷达基数据中回波反射率因子生成反射率图像,对强对流天气的雷达图像样本进行分析,提取风暴单体的图像特征,结合常用气象因子建立样本图像特征数据库,然后,采用深度学习建立雷达图像自动标注系统框架,利用FasterR‑CNN模型自动识别并对其进行分类,最后采用改进的双向ConvST‑LSTM来存储时间和空间信息,同步进行轨迹识别强对流天气现象的移动;本发明充分考虑强对流天气分型特征以及气象要素的影响因子,采用改进的双记忆递归单元存储时间和空间信息,增加相邻状态之间的转换深度,提高处理短期变化的能力,从而提高模型对雷达图像的识别能力。
-
公开(公告)号:CN114355482A
公开(公告)日:2022-04-15
申请号:CN202210002182.0
申请日:2022-01-04
Applicant: 成都信息工程大学
Abstract: 本发明公开了一种基于光流和气象数值预报的强对流天气识别方法及系统,其中方法主要体现在计算光流,搭建模型并训练模型,所述模型包括NWP stream模块和Optical flow模块,在训练器中输入的一次训练数据包含一个NWP数据以及所述NWP数据所对应的光流数据,其中光流数据的计算方法为:在数据集中根据样本数据的时间戳向前查找上一个时间戳所对应的数据集文件,基于这两个文件所对应的计算光流的函数,计算出对应的光流数据,NWP数据输入NWP stream模块的分支,光流数据输入Optical Flow模块的分支,所述NWP数据以及所述光流数据同时进行卷积运算,同时进行求导,在模型最后进行矩阵相加,输入SoftMax层得出最终结果。本发明可以实现强对流天气的细粒度分类。
-
公开(公告)号:CN113327301A
公开(公告)日:2021-08-31
申请号:CN202110570222.7
申请日:2021-05-25
Applicant: 成都信息工程大学
Abstract: 本发明提供一种基于深度类比网络在多维度雷达数据下的强对流外推方法及系统,方法包括以下步骤:(1)特征图像编码:对多个雷达图像进行编码获得多个特征图像;(2)利用深度视觉类比网络学习所述多个雷达图像与所述多个特征图像,得到外推雷达图像;(3)将所述特征图像喂入外推网络得到外推特征图像;(4)利用优化器对所述外推特征图像与所述外推雷达图像进行第一次优化,再对第一次优化后的输出进行二次优化。该方法利用两个网络同时外推出雷达图像和基于编码的特征图像,再用优化器对它们分别做优化,最后在对双网络的输出做二次优化,优化了强对流外推的过程,得到的强对流预测图像也更加精确且方法简单易行。
-
公开(公告)号:CN113239722A
公开(公告)日:2021-08-10
申请号:CN202110345106.5
申请日:2021-03-31
Applicant: 成都信息工程大学
Abstract: 本发明提供一种基于深度学习在多尺度下的强对流外推方法与系统,方法包括以下步骤:接收雷达图像数据,提取所述雷达图像数据的隐含状态特征;对所述隐含状态特征进行卷积,并将卷积结果输入TrajGRU网络中,进行强对流外推得到雷达图;将所述雷达图进行第二次卷积并同时进行批正则化获得外推图像数据。该方法对雷达图像数据训练得到外推图像,用于强对流天气如暴雨、雷暴、冰雹等极端天气的预报。
-
-
-
-
-
-
-
-
-