-
公开(公告)号:CN109087255B
公开(公告)日:2022-03-08
申请号:CN201810794951.9
申请日:2018-07-18
Applicant: 中国人民解放军陆军工程大学
IPC: G06T5/00
Abstract: 一种基于混合损失的轻量级深度图像去噪方法,包括如下步骤:获取无噪声图像,并利用计算机在无噪声图像上加入随机噪声,构建一个用于训练去噪网络的数据集,数据集中包含成对的有噪声和无噪声图像;构造一个轻量级的深度卷积神经网络,网络可以实现将输入的有噪声图像转换为无噪声图像;构造一个混合损失函数,混合损失函数包括图像的像素级恢复损失和PSNR损失,利用该混合损失函数训练深度卷积神经网络,获得深度图像去噪网络模型参数;模型学习完毕后,即可利用该网络输入有噪声图像,网络的输出即为去噪之后的图像。本发明实现了轻量级的深度图像去噪方法,在有限计算资源的移动设备和嵌入式设备中能够达到高质量的去噪效果。
-
公开(公告)号:CN109087255A
公开(公告)日:2018-12-25
申请号:CN201810794951.9
申请日:2018-07-18
Applicant: 中国人民解放军陆军工程大学
IPC: G06T5/00
Abstract: 一种基于混合损失的轻量级深度图像去噪方法,包括如下步骤:获取无噪声图像,并利用计算机在无噪声图像上加入随机噪声,构建一个用于训练去噪网络的数据集,数据集中包含成对的有噪声和无噪声图像;构造一个轻量级的深度卷积神经网络,网络可以实现将输入的有噪声图像转换为无噪声图像;构造一个混合损失函数,混合损失函数包括图像的像素级恢复损失和PSNR损失,利用该混合损失函数训练深度卷积神经网络,获得深度图像去噪网络模型参数;模型学习完毕后,即可利用该网络输入有噪声图像,网络的输出即为去噪之后的图像。本发明实现了轻量级的深度图像去噪方法,在有限计算资源的移动设备和嵌入式设备中能够达到高质量的去噪效果。
-
公开(公告)号:CN108875552A
公开(公告)日:2018-11-23
申请号:CN201810372068.0
申请日:2018-04-24
Applicant: 中国人民解放军陆军工程大学
IPC: G06K9/00
Abstract: 本发明公开了一种基于约减字典低秩表示的异常检测方法。将编码时空信息的多尺度三维梯度特征作为低等级特征,在视频数据的结构化稀疏驱动下,通过底层近似法用来获得一组正常字典序,然后利用底层结构化稀疏编码模型来学习降序字典序。该方法利用底层性质来学习能高效表示大量相似性正常特征的底层正常字典序;基于算法的稀疏性自适应地确定字典序基数的取值,使得该方法是一个解释对应的动态场景语义的最佳选择;降序字典序学习方法不仅高效,还能实现实时检测。
-
公开(公告)号:CN117034263A
公开(公告)日:2023-11-10
申请号:CN202310633542.1
申请日:2023-05-31
Applicant: 中国人民解放军陆军工程大学
IPC: G06F21/56 , G06F21/57 , G06N3/0464 , G06N3/08
Abstract: 本发明提供一种智能合约在无人机集群中的应用方法,将从无人机集群的现实需求出发,依托具备去中心化等优势特征的智能合约研究飞行数据管理、自主协同、安全维护、安全认证四个典型应用,重点分析智能合约在应用过程中潜在的漏洞。在此研究基础上,针对潜在漏洞提出一种基于注意力机制的混合神经网络的漏洞检测模型。同时,为解决深度学习法训练模型依赖大规模数据以及短时间难以获取足够智能合约攻击样本问题,提出一种新的基础学习器‑元学习器框架;本发明针对智能合约在无人机集群中应用的安全性展开研究,这是较为完善的体系研究,对于提高无人机集群建设安全系数具有一定的实践意义以及弥补了智能合约在无人机集群中安全性探索的空白。同时,该研究也为无人化的建设与发展提供了参考。
-
公开(公告)号:CN107993279A
公开(公告)日:2018-05-04
申请号:CN201711072799.5
申请日:2017-11-03
Applicant: 中国人民解放军陆军工程大学 , 南京小吉狗网络科技有限公司
Abstract: 本发明公开了一种场景精确表达方法,读取三维场景的三角面片序列与点信息,生成八叉树父节点;将八叉树的父节点进行八叉树细分,形成八叉树子节点;对需要分割处理的三角面片进行分割处理,衍生出新三角面片;对每个八叉树子节点进行是否可以转换成高度场判断,如果能够转换成高度场则改用四叉树细分,如果不能转换成高度场,则继续用八叉树细分;判断当前细分深度是否达到最大深度值,如果当前细分深度已经达到最大深度值,将非空的四叉树子节点作为叶节点,保存叶节点信息和对应的新三角面片和不需分割处理的三角面片的信息;如果当前细分深度未达到最大深度值,继续四叉树细分;最后将不需分割处理的三角面片及分割处理后的新三角面片的信息变换为高度场,并进行渲染呈现。本方法较现有体素八叉树方法大大减少了消耗的内存量。
-
公开(公告)号:CN107993279B
公开(公告)日:2021-06-29
申请号:CN201711072799.5
申请日:2017-11-03
Applicant: 中国人民解放军陆军工程大学 , 南京小吉狗网络科技有限公司
Abstract: 本发明公开了一种场景精确表达方法,读取三维场景的三角面片序列与点信息,生成八叉树父节点;将八叉树的父节点进行八叉树细分,形成八叉树子节点;对需要分割处理的三角面片进行分割处理,衍生出新三角面片;对每个八叉树子节点进行是否可以转换成高度场判断,如果能够转换成高度场则改用四叉树细分,如果不能转换成高度场,则继续用八叉树细分;判断当前细分深度是否达到最大深度值,如果当前细分深度已经达到最大深度值,将非空的四叉树子节点作为叶节点,保存叶节点信息和对应的新三角面片和不需分割处理的三角面片的信息;如果当前细分深度未达到最大深度值,继续四叉树细分;最后将不需分割处理的三角面片及分割处理后的新三角面片的信息变换为高度场,并进行渲染呈现。本方法较现有体素八叉树方法大大减少了消耗的内存量。
-
-
-
-
-