-
公开(公告)号:CN119338709A
公开(公告)日:2025-01-21
申请号:CN202411206102.9
申请日:2024-08-30
Applicant: 北京理工大学重庆创新中心 , 中国空间技术研究院 , 北京理工大学
IPC: G06T5/70 , G06T5/50 , G06T7/40 , G06T5/60 , G06N3/0464 , G06N3/094 , G06N3/0985
Abstract: 本发明提供了一种基于扩散模型的SAR图像到光学图像转换方法,本发明包括将一个去噪扩散模型作为生成器,并构建一个判别器,将原始光学图像输入去噪扩散模型,将其逐步添加高斯噪声,得到有噪光学图像;将所述有噪光学图像和真实SAR图像沿通道维度串联起来,形成组合图;将组合图输入至噪声预测网络,基于所述噪声预测网络的噪声损失项,引入对抗损失和感知损失计算总损失函数,输出转换结果。本发明采用扩散模型,通过逆扩散捕捉数据分布的底层复杂性,生成具有精细细节和真实纹理的高质量图像,且逆扩散过程将复杂的数据分布映射回简单分布,允许潜在空间表示数据中存在的有意义的特征、模式和潜变量,具有更可解释的潜在空间。
-
公开(公告)号:CN119251612A
公开(公告)日:2025-01-03
申请号:CN202411121381.9
申请日:2024-08-15
Applicant: 北京理工大学 , 北京理工大学重庆创新中心
IPC: G06V10/774 , G06V20/64 , G06V10/82 , G06N3/0475 , G06N3/045 , G06N3/094
Abstract: 本发明提供基于TransCGAN仿真参数提取框架的SAR主轴预测数据集构建方法,包括:获取目标3D模型,根据目标3D模型,得到仿真SAR图像数据集;构建基于TransCGAN模型的参数预测网络;获取真实SAR图像,将仿真SAR图像数据集和真实SAR图像输入进参数预测网络,得到预测的目标待测参数;根据预测的目标待测参数得到目标SAR主轴预测数据集。本发明以目标3D模型和真实SAR图像为输入数据,训练TransCGAN网络获取SAR图像与仿真参数之间的关系,借助软件实现仿真参数到仿真SAR图像之间的转换,最终提取精确仿真参数得到目标SAR主轴预测数据集,用以目标主轴方向预测网络的训练。
-
公开(公告)号:CN119107408A
公开(公告)日:2024-12-10
申请号:CN202411122492.1
申请日:2024-08-15
Applicant: 北京理工大学 , 北京理工大学重庆创新中心
Abstract: 本发明提供了一种基于Mamba参数提取网络的SAR图像仿真方法,本发明以目标物的3D模型和真实高清SAR图像为框架的输入数据,通过训练Mamba网络来获取SAR图像与仿真参数之间的映射关系,借助RaySAR软件实现仿真参数到仿真SAR图像之间的转换,最终实现从单一的真实SAR图像中提取精确的仿真参数并以此生成大量仿真SAR图像。相较于传统的SAR图像仿真方法,将机器学习与基于成像原理的仿真方法相结合,使用机器学习辅助SAR图像仿真,仿真速度更快,仿真效果更好,提高了真实SAR图像数据的利用率。
-
公开(公告)号:CN118411604A
公开(公告)日:2024-07-30
申请号:CN202410503735.X
申请日:2024-04-25
Applicant: 北京理工大学
IPC: G06V20/10 , G06V10/26 , G06V10/77 , G06V10/58 , G06V10/764 , G06V10/82 , G06V10/30 , G06N3/0464 , G06N3/08
Abstract: 本发明提供了一种基于轻量化扩散模型去噪网络的高光谱图像分类方法,本发明基于对原始高光谱图像提取PCA分量,并将PCA图像块和原始高光谱图像切割成的图像块作为输入至扩散模型进行去噪网络训练;并对扩散模型解码器简化后,利用输入预训练解码器生成需要的高光谱图像块样本,增加原先数量较少的类别的样本数量;利用分类方法对生成样本的合理性进行测试。相较于传统的高光谱图像分类方法,本方案通过增加样本数量和提升样本类间平衡度的数据扩充方法从而提升高光谱图像分类准确度,并且利用PCA图像块和加噪图像块对扩散模型解码器进行预训练,使得解码器能够从高光谱图像中充分获取全局空间和光谱信息,从而生成更为真实的高光谱图像,提高生成样本真实性。
-
公开(公告)号:CN118411304A
公开(公告)日:2024-07-30
申请号:CN202410505245.3
申请日:2024-04-25
Applicant: 北京理工大学
IPC: G06T5/70 , G06T7/11 , G06T5/60 , G06N3/084 , G06N3/0895
Abstract: 本发明提供一种基于盲点网络的SAR图像自监督去噪方法和系统,其中,方法包括:获取SAR图像,根据SAR图像得到同态噪声图像;构建掩膜映射器,根据同态噪声图像和掩膜映射器,得到去噪掩膜图像和去噪SAR图像;构建全局映射器,根据去噪掩膜图像和全局映射器,得到去噪盲点图像;构建多任务重现损失函数,重复进行损失值计算,直至损失函数收敛,得到目标去噪网络;获取待去噪SAR图像,输入至目标去噪网络,得到去噪图像。本发明无需在干净SAR图像情况下进行去噪网络的训练,能迁移到现有的去噪网络上,保证图像每个像素点都被充分利用,避免信息损失,更好地保留图像纹理、边缘等信息,解决目前网络无法训练及去噪效果差的问题。
-
公开(公告)号:CN118411289A
公开(公告)日:2024-07-30
申请号:CN202410506792.3
申请日:2024-04-25
Applicant: 北京理工大学
IPC: G06T3/4053 , G06T3/4046 , G06N3/0475 , G06N3/045 , G06N3/094 , G06N3/0464 , G06N3/048
Abstract: 本发明提供了一种基于生成对抗网络的SAR图像超分辨率方法,本发明基于构建两个基于深度学习的模型,分别为可学习的退化模型和超分辨率重建SR模型,引入CycleGAN的架构中,共同训练。通过CycleGAN的对抗损失、真实LR‑SAR图像和合成LR‑SAR图像的MAE像素级损失,以及真实HR图像和生成的SR图像特征图之间的感知损失,引导生成更高质量的SR‑SAR图像。相对于传统的SAR超分辨率方法,本方案采用真实的成对数据集,通过训练模型以学习真实SAR图像HR‑LR域之间的内在关系,从而生成质量更高的超分辨率重建的图像。
-
-
-
-
-