-
公开(公告)号:CN119805392A
公开(公告)日:2025-04-11
申请号:CN202411761912.0
申请日:2024-12-03
Applicant: 南京理工大学
IPC: G01S7/41 , G06F18/213 , G06F18/25 , G06F30/27
Abstract: 本发明公开了一种基于广域特征提取的海杂波数据样本智能生成方法,包括:基于海杂波时空相关特性,利用滑动窗口机制处理海杂波数据,对一维单距离门多脉冲海杂波数据进行三通道RGB图像样本构建;面向海杂波的广域能量分布提取精细化特征,构建海杂波特征提取模块,并嵌入到海杂波建模仿真网络中;改进基于ViT的生成器,提出并引入了海杂波瞬态全局信息与局部细节融合模块和空频双路径信息提取模块,并将提取到的海杂波精细化特征作为先验信息输入到生成器中,设计联合损失函数约束引导网络训练,直至生成器和鉴别器均达到收敛状态,取训练好的生成器作为海杂波生成模型。本发明最终生成的数据在多域逼真度指标上达到了给定阈值指标要求。
-
公开(公告)号:CN117991193A
公开(公告)日:2024-05-07
申请号:CN202311695625.X
申请日:2023-12-11
Applicant: 南京理工大学
IPC: G01S7/02
Abstract: 本发明公开了一种基于时空联合感知的海杂波数据样本生成方法,包括:根据海杂波数据的幅度分布统计特征获取接近真实海杂波分布的脉冲噪声;采用滑动窗口在纯净海杂波数据中抽取数据形成独立样本,将样本转换为双通道实样本;搭建基于Transformer的海杂波生成器与鉴别器;将脉冲噪声作为先验信息输入到生成器中,基于双通道实样本对生成器和鉴别器进行协同训练,直至生成器和鉴别器训练到达到纳什均衡状态;后取训练好的生成器生成的海杂波数据,作为真实数据的替代或扩充,对生成回波数据和真实回波数据进行特性分析。本发明可以利用少量的海杂波数据进行海量生成,具有精度高、易训练、便迁移等优点。
-
公开(公告)号:CN116244264A
公开(公告)日:2023-06-09
申请号:CN202310046358.7
申请日:2023-01-31
Applicant: 南京理工大学
IPC: G06F16/174 , G06F3/06 , G06N20/00
Abstract: 本发明提出了一种面向移动嵌入式设备的数据去重智能决策优化方法。在用户使用各种应用时,产生大量的冗余文件(包括图片、文件、数据库文件等),可以通过消除冗余文件的方式,降低存储空间占用率。当前消除冗余的方式需要计算出每个文件的哈希指纹值,进而找出重复文件并进行去重。该过程需要对全盘数据进行扫描,产生大量时间开销,并且不当的去重触发时机还会造成去重效率不高等问题。本发明提出了一种基于强化学习的策略,改善去重决策选择效率。通过全面学习移动设备当前状态以及当前重复文件的状态,实现精确去重对象选择和时间选择。通过本发明,移动设备可以自适应地完成去重过程,快速降低空间压力,避免对用户性能的影响。
-
公开(公告)号:CN114092339B
公开(公告)日:2022-05-20
申请号:CN202210076937.1
申请日:2022-01-24
Applicant: 南京理工大学
Abstract: 本发明公开了一种基于跨帧自注意力变换网络的时空视频超分辨率重建方法,包括以下步骤:采集连续图片序列,将其进行双三次插值降采样,并删除偶数帧,构成训练集;构建基于跨帧自注意力变换的时空视频超分辨率重建网络;利用训练集对基于跨帧自注意力变换网络进行训练;将低分辨率低帧率的连续图片序列输入所述训练完成的基于跨帧自注意力变换网络,获得高帧率高分辨率的连续图片序列。本发明能够通过一个端对端的神经网络同时实现空间和时间尺度的超分辨率,有效提高了对时空特征信息的利用,能够产生高帧率高分辨率的视频超分辨率重建效果。
-
公开(公告)号:CN112116089A
公开(公告)日:2020-12-22
申请号:CN202010931287.5
申请日:2020-09-07
Applicant: 南京理工大学
Abstract: 本发明提出了一种针对资源受限设备视频处理的深度学习网络裁剪方法,具体步骤为:根据网络收敛精度,确定子网络个数;根据确定的子网络个数将深度学习网络分成若干个独立子网络;采用group LASSO算法对每个子网络进行稀疏化处理,使可裁剪的网络权重逼近0;计算每一个子网络的所有权重和,将权重和小于设定阈值的子网络进行裁剪。本发明能够对神经网络进行稀疏化裁剪,移除不必要的权重分支网络,通过本发明,提高了计算效率,降低了计算开销。
-
公开(公告)号:CN114092339A
公开(公告)日:2022-02-25
申请号:CN202210076937.1
申请日:2022-01-24
Applicant: 南京理工大学
Abstract: 本发明公开了一种基于跨帧自注意力变换网络的时空视频超分辨率重建方法,包括以下步骤:采集连续图片序列,将其进行双三次插值降采样,并删除偶数帧,构成训练集;构建基于跨帧自注意力变换的时空视频超分辨率重建网络;利用训练集对基于跨帧自注意力变换网络进行训练;将低分辨率低帧率的连续图片序列输入所述训练完成的基于跨帧自注意力变换网络,获得高帧率高分辨率的连续图片序列。本发明能够通过一个端对端的神经网络同时实现空间和时间尺度的超分辨率,有效提高了对时空特征信息的利用,能够产生高帧率高分辨率的视频超分辨率重建效果。
-
-
-
-
-