-
公开(公告)号:CN117830852A
公开(公告)日:2024-04-05
申请号:CN202410029973.1
申请日:2024-01-08
Applicant: 北京环境特性研究所
IPC: G06V20/10 , G06V10/774 , G06V10/25
Abstract: 本发明提供了一种海面目标可探测性预测方法、装置及计算设备,该方法包括:获取待预测海面目标信息和目标工况条件;根据目标工况条件和预先构建的探测属性库,从目标工况条件中确定目标探测属性;将目标探测属性输入预先训练的预测模型中,输出待预测海面目标信息在目标工况条件下的目标检测概率。本方案提供的海面目标可探测性预测方法解决了现有海面目标的可探测性预测耗时长、流程复杂等问题,能快速准确预测目标的可探测性。
-
公开(公告)号:CN117036975A
公开(公告)日:2023-11-10
申请号:CN202311002153.5
申请日:2023-08-09
Applicant: 北京环境特性研究所
IPC: G06V20/13 , G06V10/764 , G06V10/80 , G06V10/50 , G06V10/54 , G06T7/11 , G06N3/0464 , G06N3/08
Abstract: 本发明提供了一种SAR图像的目标识别方法及装置,其中方法包括:获取待识别SAR图像;提取所述待识别SAR图像的定量语义特征和图像特征;基于预先构建的定量语义特征与定性语义特征的语义映射关联,将所述待识别SAR图像的定量语义特征映射为所述待识别SAR图像的定性语义特征;对所述待识别SAR图像的图像特征、定量语义特征和定性语义特征分别进行编码,并对分别编码后的特征进行特征融合,以根据特征融合结果输出对所述待识别SAR图像的目标识别结果。本方案,能够提高SAR图像目标识别的准确性。
-
公开(公告)号:CN116795993A
公开(公告)日:2023-09-22
申请号:CN202310010405.2
申请日:2023-01-04
Applicant: 北京环境特性研究所
IPC: G06F16/36 , G06F16/387 , G06N3/04 , G06F40/295 , G06F40/30 , G06F40/126 , G06F16/35
Abstract: 本发明提供了一种基于知识图谱的轨迹序列建模方法、装置及计算设备,该方法包括:获取目标的轨迹数据;对轨迹数据进行知识抽取,得到地理空间信息和空间轨迹信息;根据地理空间信息确定目标所在的空间区域;对空间区域进行离散网格化,得到空间实体;构建知识图谱;针对每个空间实体,均执行:确定与该空间实体存在空间邻接关系的邻接空间实体,并将该空间实体与邻接空间实体进行聚合表达,得到对应该空间实体的语义向量;利用深度学习模型对目标的每个空间实体的语义向量进行序列建模,得到轨迹序列模型。本方案提供的轨迹序列建模方法避免了人工处理带来的错漏和效率低能,且能实现基于空间关系的复杂推理,有利于进行情报综合分析。
-
公开(公告)号:CN112415514B
公开(公告)日:2023-05-02
申请号:CN202011278930.5
申请日:2020-11-16
Applicant: 北京环境特性研究所
IPC: G01S13/90 , G06V10/74 , G06V10/774 , G06N3/0464
Abstract: 本发明涉及一种目标SAR图像生成方法及装置、计算机设备、计算机可读存储介质,该方法包括:获取真实的SAR图像数据构成训练集;由一组训练样本中选出N个方位角连续的SAR真实图像,利用卷积神经网络提取特征;将首个SAR真实图像的单图特征和连续N个SAR真实图像的整体关系特征输入生成对抗网络的生成器,得到N‑1个SAR生成图像;通过生成对抗网络的判别器,对N‑1个SAR生成图像和相对应的N‑1个SAR真实图像分别进行特征对比,利用损失函数衡量SAR生成图像和SAR真实图像的相似度;得到完成训练的生成对抗网络,随机生成SAR生成图像。本发明可实现SAR图像数据的外推生成,以完善并扩充数据量。
-
公开(公告)号:CN115861682A
公开(公告)日:2023-03-28
申请号:CN202211430208.8
申请日:2022-11-15
Applicant: 北京环境特性研究所
IPC: G06V10/764 , G06V10/40 , G06V10/77 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/084
Abstract: 本发明实施例涉及图像处理技术领域,特别涉及一种小样本图像的分类方法、装置、电子设备及存储介质。方法包括:基于改进的原型网络,确定小样本图像中每类图像的类别原型特征,所述改进的原型网络的网络主干是基于VIT模型构建的;利用所述网络主干对待分类图像进行特征提取,得到所述待分类图像的目标特征向量;基于所述待分类图像的目标特征向量与每个所述类别原型特征的距离,确定所述待分类图像的类别。本发明方法,能够提高小样本图像分类的准确率。
-
公开(公告)号:CN114239280A
公开(公告)日:2022-03-25
申请号:CN202111555377.X
申请日:2021-12-17
Applicant: 北京环境特性研究所
IPC: G06F30/20
Abstract: 本发明涉及目标特性分析技术领域,尤其涉及一种异构目标特性建模软件的集成方法及装置,该方法包括:获取待集成的各个目标特性建模软件的基本信息;基于获取的基本信息,对每个目标特性建模软件编译对应的算法接口模块;算法接口模块与对应的目标特性建模软件的开发语言相同,包括外部调用接口单元、格式转化单元和建模软件调用单元;将每个目标特性建模软件及对应的算法接口模块添加至单独的容器中;容器用于为目标特性建模软件及算法接口模块提供运行环境。本发明能够统一管理不同的目标特性建模软件,以实现复杂场景下的目标特性协同仿真。
-
公开(公告)号:CN111367570A
公开(公告)日:2020-07-03
申请号:CN202010100938.6
申请日:2020-02-19
Applicant: 北京环境特性研究所
IPC: G06F9/4401
Abstract: 本发明涉及终端技术领域,尤其涉及一种应用软件自启动方法及装置、计算机设备、计算机可读存储介质,该方法包括:为应用软件建立相应的配置文件,所述配置文件中记载的信息包括所述应用软件的名称、运行路径和启动时间;设置随操作系统自启动的引导程序,所述引导程序自启动后读取所述配置文件,并根据其记载的相应启动时间计时;在所述引导程序计时达到相应启动时间后,根据所述配置文件中记载的所述应用软件的名称、运行路径,启动所述应用软件。本发明提高了复杂应用软件的可靠性与稳定性。
-
公开(公告)号:CN107180102A
公开(公告)日:2017-09-19
申请号:CN201710376521.0
申请日:2017-05-25
Applicant: 北京环境特性研究所
IPC: G06F17/30
Abstract: 本发明提供了一种目标特性数据的存储方法和系统,其中的方法包括:预先设置多个用于存储数据的数据存储模块以及对应的存储控制器;客户端向分发器发送携带有数据信息的数据存储请求,数据信息包括:密级信息、共享信息、用户组信息和访问权限信息;分发器根据数据存储请求及各个存储控制器的负载情况选择一个存储控制器,将数据存储请求转发给所选择的存储控制器,并将所选择的存储控制器通知所述客户端;客户端与存储控制器直接进行通信,存储控制器为客户端提供统一的数据读写接口,将客户端上传的数据存储到与存储控制器对应的数据存储模块中。应用本发明可以降低数据存储成本,统一管理和维护数据,保障数据安全,方便数据共享和使用。
-
公开(公告)号:CN107038689A
公开(公告)日:2017-08-11
申请号:CN201710142759.7
申请日:2017-03-10
Applicant: 北京环境特性研究所
CPC classification number: G06T5/009 , G06T5/50 , G06T2207/10016 , G06T2207/20021 , G06T2207/30232 , H04N7/18
Abstract: 本发明公开了一种视频增亮方法,包括步骤有:1)对输入的图像进行通道筛选,并将图像分成三个单通道图像;2)对三个单通道图像进行反相操作;3)计算三个单通道图像的暗通道图像;4)统计三个单通道图像的直方图;5)统计环境光;6)进行高斯滤波;7)计算透射率映射表;8)对三个单通道图像进行增亮处理;9)对三个单通道图像进行数据合并,并输出图像。本发明解决了图像增亮问题,且提高了视频处理的运行速度。
-
公开(公告)号:CN105868750A
公开(公告)日:2016-08-17
申请号:CN201610178033.4
申请日:2016-03-25
Applicant: 北京环境特性研究所
CPC classification number: G06K9/2054 , G06T7/60 , G06T2207/10004
Abstract: 公开了一种基于先验信息的表盘指针识别方法,通过进行圆周扫描,能够确定表盘上指针粗端的位置;通过根据指针粗端的位置间接获取指针细端的位置,能够避免由于指针细端过细而导致图像识别不准的情况发生,使处理结果更加精确。为使结果更加精准,本发明还利用预测指针细中心再次验证预测指针细端中心是否正确,能够进一步识别结果更加精准。根据本发明的表盘指针识别方法稳定性高、鲁棒性强、实用性好。
-
-
-
-
-
-
-
-
-