-
公开(公告)号:CN117058058A
公开(公告)日:2023-11-14
申请号:CN202311025961.3
申请日:2023-08-15
Applicant: 哈尔滨工业大学
Abstract: 本发明公开了一种面向旋转合成孔径计算成像的序列图像融合方法,所述方法立足于旋转合成孔径光学遥感系统成像机理,提出基于视觉Transformer的端到端图像融合网络。时空信息提取模块中的帧内自注意力计算,可更为有效地处理遥感图像中不同尺度的物体的信息。同时使用帧间互注意力替代显式的对准模块,可自适应地捕捉不同帧中相近位置的像素之间的关联,并减少伪影的产生。融合网络的时空信息融合模块中使用视觉滑动窗口Transformer模块,通过Transformer本身强大的建模能力对时域信息进行充分融合,能够充分利用低质量图像序列中的额外信息,为旋转合成孔径系统的实际在轨应用提供特性先验与数据输入。
-
公开(公告)号:CN114137005B
公开(公告)日:2023-07-21
申请号:CN202111486350.X
申请日:2021-12-07
Applicant: 哈尔滨工业大学
IPC: G01N23/20 , G01N23/207
Abstract: 本发明公开了一种分布式多模衍射成像方法,所述方法包括如下步骤:步骤一:根据应用需求设计分布式多模衍射成像系统,获取多视场、多谱段的时序图像;步骤二:对获取的多视场、多谱段的时序图像进行配准;步骤三:融合多视场、多谱段、多时相信息,实现超分辨率重建;步骤四:利用图像复原算法提升图像传递函数,去除非设计级次衍射光产生的背景辐射,得到高分辨率图像。本发明利用分布式排列的多个子衍射系统单独成像,且具有不同探测谱段,图像间存在亚像素偏移,获取多视场、多谱段、多时相图像数据后,通过融合、超分、复原算法最终获取高分辨率图像,具有高分辨率、轻量化、成本低等优势,为高分辨率光学卫星载荷跨越式发展提供了技术途径。
-
公开(公告)号:CN114581349A
公开(公告)日:2022-06-03
申请号:CN202210158227.3
申请日:2022-02-21
Applicant: 哈尔滨工业大学
IPC: G06T5/50
Abstract: 一种基于辐射特性反演的可见光图像与红外图像融合方法,属于光学图像处理技术领域,具体包括以下步骤:步骤一:利用多谱段可见光图像反演计算场景中地物全谱段反射特性;步骤二:利用红外图像反演计算场景中地物热辐射特性;步骤三:将地物全谱段反射特性、地物热辐射特性融合得到高分辨率的红外场景,通过全链路仿真重构红外图像;步骤四:建立真实高分辨率红外图像与实测低分辨率红外图像间退化关系,利用实测红外图像对重构仿真结果进行修正,得到高保真的高分辨率红外图像。本发明能够为地表分析、环境监测、灾害防控等提供高分辨率图像数据,同时为相关检测识别方法研究提供特性先验与数据输入。
-
公开(公告)号:CN109255286B
公开(公告)日:2021-08-24
申请号:CN201810807503.8
申请日:2018-07-21
Applicant: 哈尔滨工业大学
Abstract: 本发明公开了一种基于深度学习网络框架的无人机光学快速检测识别方法,所述方法步骤如下:步骤一:针对目前市场主流的五种无人机开展飞行试验采集光学成像实验数据,并按照标准VOC数据格式对采集的光学成像实验数据进行处理;步骤二:搭建YOLO网络框架,利用残差网络模块对YOLO网络框架进行改进,对改进后的YOLO网络框架进行训练,得到检测识别模型;步骤三:选取包含五种无人机的实拍飞行光学成像实验数据,利用步骤二所得的检测识别模型进行检测识别。本发明避免了对无人机和复杂背景特征人工建模复杂、适用性不强等问题,能够大大提高复杂背景下动目标检测识别的速度和准确率。
-
公开(公告)号:CN107016210B
公开(公告)日:2020-08-07
申请号:CN201710255306.5
申请日:2017-04-18
Applicant: 哈尔滨工业大学
IPC: G06F30/20
Abstract: 一种菲涅尔衍射光学系统的成像质量仿真方法,本发明属于光学成像仿真技术领域,所述方法步骤如下:步骤一:基于等晕区分块思想,将原始图像分割为若干个具有近似相同点扩散函数的图像块;步骤二:计算各图像块中心的子午面位置及其对应的视场角;步骤三:构造离散化的菲涅尔衍射公式,计算各图像块的点扩散函数;步骤四:利用图像不同区域的MTF对各图像块进行低通滤波,并添加随机噪声。本发明适用于以衍射镜为主镜的光学系统的成像质量仿真,可仿真生成具有低MTF、低对比度、低SNR、大尺寸PSF空变等衍射光学成像特性的图像,为菲涅尔衍射成像系统的优化设计及其图像处理算法研究与验证提供支持。
-
公开(公告)号:CN109255286A
公开(公告)日:2019-01-22
申请号:CN201810807503.8
申请日:2018-07-21
Applicant: 哈尔滨工业大学
Abstract: 本发明公开了一种基于YOLO深度学习网络框架的无人机光学快速检测识别方法,所述方法步骤如下:步骤一:针对目前市场主流的五种无人机开展飞行试验采集光学成像实验数据,并按照标准VOC数据格式对采集的光学成像实验数据进行处理;步骤二:搭建YOLO网络框架,利用残差网络模块对YOLO网络框架进行改进,对改进后的YOLO网络框架进行训练,得到检测识别模型;步骤三:选取包含五种无人机的实拍飞行光学成像实验数据,利用步骤二所得的检测识别模型进行检测识别。本发明避免了对无人机和复杂背景特征人工建模复杂、适用性不强等问题,能够大大提高复杂背景下动目标检测识别的速度和准确率。
-
公开(公告)号:CN108364250A
公开(公告)日:2018-08-03
申请号:CN201810094235.X
申请日:2018-01-30
Applicant: 哈尔滨工业大学
Abstract: 本发明公开了一种基于矢量衍射理论的菲涅尔衍射光学系统成像仿真方法,所述方法包括如下步骤:步骤一:基于同心圆形分块思想,将原始图像分割为若干个具有相同环宽的环带图像块;步骤二:利用时域有限差分法(FDTD),计算各环带的MTF;步骤三:利用各环带MTF对图像块进行低通滤波,并添加噪声。本发明提出的方法适用于以衍射镜为主镜的光学系统成像质量的仿真预估,可获取具有低MTF、低SNR、大尺寸PSF空间移变等衍射光学特性的仿真图像,能够为衍射光学成像系统的优化设计以及图像处理算法的研究与验证提供支持,填补了目前衍射光学成像质量精细仿真建模理论方法的空白。
-
公开(公告)号:CN116434074B
公开(公告)日:2025-04-08
申请号:CN202310019335.7
申请日:2023-01-06
Applicant: 哈尔滨工业大学
Abstract: 本发明公开了一种基于邻支互补显著性和多先验稀疏表征的目标识别方法,所述方法包括如下步骤:步骤1:提出邻支互补显著性提取网络,挖掘图像深层次、语义一致性信息,提取多尺度目标的候选显著区域;步骤2:通过结合目标多先验信息的稀疏表征分类器,抑制显著性提取网络可能产生的虚警,实现复杂场景下舰船目标的准确识别。该方法通过深度显著性特征提取网络挖掘图像中舰船目标的显著区域特征,与图像数据的多先验稀疏表征分类方法结合,不但可以充分发挥深度网络多层级提取图像特征的优势,而且对物体部分遮挡复杂海杂波、港口设施、光照阴影等复杂环境干扰具有鲁棒性的特点,可为港口救援、海上交通维护等应用提供支持。
-
公开(公告)号:CN119516293A
公开(公告)日:2025-02-25
申请号:CN202411664241.6
申请日:2024-11-20
Applicant: 哈尔滨工业大学
IPC: G06V10/77 , G01N21/25 , G06V10/82 , G06F17/16 , G06F17/18 , G06V10/764 , G06T5/50 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于光谱扩散的环境异常检测方法,所述方法针对高光谱图像目标检测领域,提出了一种基于主成分分析和线性光谱混合模型的异常谱生成方法,解决了存在和不存在异常的配对标记数据不足的问题,以保证学习到的特征的有效性,同时提高了传统异常目标生成方法的真实感;针对高光谱数据设计了双窗口光谱扩散模型,将每个像元的扩散过程视为目标与周围背景的光谱混合,提高了重建过程中空间‑光谱维数估计的精度,使背景估计具有较高的空间和光谱精度;引入双窗口光谱扩散背景重建方法,通过在排除目标的双窗口内对光谱进行迭代积累,减少了异常扩展面积对背景估计的影响,有效抑制目标光谱。
-
公开(公告)号:CN117761713B
公开(公告)日:2025-02-25
申请号:CN202311795749.5
申请日:2023-12-25
Applicant: 哈尔滨工业大学
Abstract: 本发明公开了一种目标探测谱段的筛选方法、装置、设备和存储介质,其涉及目标检测技术领域。包括:获取目标的背景起伏尺度,对背景起伏尺度进行杂波量化并建立杂波定量化表征模型;通过杂波定量化表征模型计算目标相对于不同背景的信杂比投影图,选取包括峰值信杂比谱段作为初选探测谱段;将杂波定量化表征模型与天基探测链路进行结合得到目标可检测性表征模型;通过目标可检测性表征模型在初选探测谱段中筛选得到优选探测谱段。本发明考虑了天基探测链路及其各环节多尺度耦合效应,能够解决天基目标可检测性能的多尺度耦合匹配所存在的问题,在保证谱段优选性能的前提下,极大地提升了优选探测谱段选择的效率。
-
-
-
-
-
-
-
-
-