-
公开(公告)号:CN115294478A
公开(公告)日:2022-11-04
申请号:CN202210897206.3
申请日:2022-07-28
Applicant: 北京航空航天大学
Abstract: 本发明涉及一种应用于现代光电平台的空中无人机目标检测方法,包括无人机候选区域提取,候选区域评价、定位目标的正确性判断和结果处理。无人机候选区域提取是对灰度图进行多尺度滤波、提取差值图边缘、形态学运算和连通域操作得到候选区域。候选区域评价部分是基于候选区域均值和长宽比、邻域的均值和方差建立的评分机制,将最高得分的候选区域确定为定位目标。目标的正确性判断通过比较定位目标在当前帧和五帧后的状态,来判断定位目标是否正确。结果处理是当定位目标正确时完成检测,否则重新执行检测。
-
公开(公告)号:CN113947616B
公开(公告)日:2022-08-30
申请号:CN202111116009.5
申请日:2021-09-23
Applicant: 北京航空航天大学
IPC: G06T7/246 , G06T7/73 , G06V10/44 , G06V10/50 , G06V10/774
Abstract: 本发明涉及一种基于层级化感知机的智能目标跟踪及丢失重检方法,首先根据选定跟踪目标的位置和大小,对两种不同搜索区域的图像计算特征图,并采集样本作为两种不同感知机的训练样本。当输入跟踪的第一帧图像时,感知机完成初始化训练,并且初始化目标状态、位置和参考响应值;当输入第二帧及之后帧的图像时,将判断当前帧的图像数据是进入跟踪支路还是重检测支路。当进入跟踪支路时,利用多级感知机构建的具有层级化结构的两个跟踪分支都会计算当前帧的目标位置,输出比较后最优的目标位置并且判断目标状态;当进入重检测支路时,利用多个一级感知机组成的重检测器会在大范围内重检测目标,将最大响应值区域作为重检目标同时判断该目标状态。
-
公开(公告)号:CN113848780A
公开(公告)日:2021-12-28
申请号:CN202111106472.1
申请日:2021-09-22
Applicant: 北京航空航天大学
IPC: G05B19/042
Abstract: 本发明提供了一种多核异构处理器架构下的高机动平台姿态解算装置及方法,系统主要包括测量数据采集模块、数据传输模块、姿态融合解算模块和输出模块四部分。测量数据包括角速度、加速度以及磁场强度在内XYZ九轴数据。通过FPGA核采集,测量数据经优化读取方法后通过AXI总线流入ARM核,采用一种基于AHRS的姿态融合算法将数据进行解算得到绝对姿态角。本发明易于实现,有较好的可移植性,能够在采集到数据后快速完成姿态解算,对机动平台的姿态信息进行实时分析,精度高,稳定性强,输出延迟低,可以在各种场景下完成对机动平台的姿态监视和控制。
-
公开(公告)号:CN108122213B
公开(公告)日:2019-02-12
申请号:CN201711419443.4
申请日:2017-12-25
Applicant: 北京航空航天大学
IPC: G06T5/00
Abstract: 本发明涉及一种基于YCrCb的低对比度图像增强方法,包括以下步骤:(1)对获取的原始图像利用梯形低通滤波器进行图像去噪。(2)将去噪后图像进行RGB颜色空间和YCrCb颜色空间的转换,得到图像亮度分量。(3)采用传统空间域线性变换方法对亮度分量图像进行分段线性变换。(4)将变换后图像进行Gamma校正。(5)利用单尺度Retinex算法对校正后图像进行高斯滤波,估计出照度分量和反射分量图像。(6)针对反射分量图像,利用高斯锐化算法进行图像锐化。(7)将锐化图像进行YCrCb颜色空间和RGB颜色空间的转换。
-
公开(公告)号:CN108093175B
公开(公告)日:2018-11-13
申请号:CN201711419404.4
申请日:2017-12-25
Applicant: 北京航空航天大学
Abstract: 本发明涉及一种实时高清视频自适应去雾方法及装置,该装置包括视频图像采集模块,视频图像去雾处理模块,通讯接口模块,视频图像编码与显示模块;视频图像采集模块实现视频信号的采集与解码,视频图像去雾处理模块实现视频信号的去雾处理,通讯接口模块实现装置与上位机的指令交换,视频图像编码与显示模块实现视频的编码输出与显示。该方法是根据高清图像数据量大的特点,采用合理的假设,提出了一种计算量较小的透射率与大气光强的估计方法;在提高去雾效果的同时大大降低了计算量,保证去雾算法的实时性,同时使图像更加平滑,更加自然。本发明结构简单,易于实现,可以根据雾、霾的浓度自适应选择去雾强度,更加的智能化和人性化。
-
公开(公告)号:CN108154492A
公开(公告)日:2018-06-12
申请号:CN201711421010.2
申请日:2017-12-25
Applicant: 北京航空航天大学
CPC classification number: G06T5/40 , G06T5/10 , G06T7/90 , G06T2207/20032
Abstract: 本发明涉及一种基于非局部均值滤波的图像去雾霾方法,包括以下步骤:(1)针对获取的原始图像,进行RGB颜色空间和YCrCb颜色空间的转换,得到原始图像的亮度分量。(2)利用直方图统计亮度分量像素值,求取所有亮度分量像素值的平均值。(3)判断亮度分量像素平均值大小,若平均值大于150则认为原始图像含雾霾,反之图像不含雾霾。(4)针对输入的原始图像,求取图像暗原色。(5)选取图像暗原色中亮度值最高的0.1%像素的位置,并将该位置内亮度最大值作为大气光值。(6)根据暗原色计算公式,粗略估计大气散射模型的传播率。(7)采用非局部均值滤波方法细化传播率。(8)将大气光值与细化的传播率代入大气散射模型,复原去雾霾后的图像。
-
公开(公告)号:CN108122247A
公开(公告)日:2018-06-05
申请号:CN201711419449.1
申请日:2017-12-25
Applicant: 北京航空航天大学
CPC classification number: G06T7/246 , G06K9/00718 , G06K9/00744 , G06K9/6223 , G06N3/0454 , G06T7/73 , G06T2207/10016
Abstract: 一种基于图像显著性和特征先验模型的视频目标检测方法,根据输入正负样本训练卷积神经网络,作为目标的特征先验模型;提取图像序列中某一图像帧的显著性区域,聚类得到显著性候选框;将显著性候选框输入特征先验模型,预测目标位置,以实现图像帧中的目标检测;利用特征先验模型在显著性候选框中定位关键点,利用L-K稀疏光流方法对关键点计算,预测目标运动方向;在图像帧中,提取满足运动方向约束与置信度阈值的候选,作为新的正负样本,输入并更新特征先验模型;针对所述图像序列中的每个图像帧,重复步骤,实现图像序列的目标检测。本发明实现了目标的检测,且具有抗干扰能力强、检测精度高、实时性能好的特点,增强了目标检测系统的工程应用能力。
-
公开(公告)号:CN108093175A
公开(公告)日:2018-05-29
申请号:CN201711419404.4
申请日:2017-12-25
Applicant: 北京航空航天大学
CPC classification number: H04N5/23229 , H04N5/217 , H04N5/372 , H04N9/045 , H04N9/64
Abstract: 本发明涉及一种实时高清视频自适应去雾方法及装置,该装置包括视频图像采集模块,视频图像去雾处理模块,通讯接口模块,视频图像编码与显示模块;视频图像采集模块实现视频信号的采集与解码,视频图像去雾处理模块实现视频信号的去雾处理,通讯接口模块实现装置与上位机的指令交换,视频图像编码与显示模块实现视频的编码输出与显示。该方法是根据高清图像数据量大的特点,采用合理的假设,提出了一种计算量较小的透射率与大气光强的估计方法;在提高去雾效果的同时大大降低了计算量,保证去雾算法的实时性,同时使图像更加平滑,更加自然。本发明结构简单,易于实现,可以根据雾、霾的浓度自适应选择去雾强度,更加的智能化和人性化。
-
公开(公告)号:CN118741263A
公开(公告)日:2024-10-01
申请号:CN202410952868.5
申请日:2024-07-16
Applicant: 北京航空航天大学
IPC: H04N21/81 , H04N21/854 , H04N21/44 , G06N3/096 , G06N3/0464 , G06N3/0455
Abstract: 本发明提供了一种基于潜在一致性模型的视频生成方法及装置,包括:获取待处理视频的信息和文本描述;对所述待处理视频第一帧进行时空条件处理,采用图像生成中的一致性蒸馏策略,结合所述时空条件处理,对现有的潜在扩散模型进行优化,对所述处理后的信息与文本描述进行潜在一致性模型训练;其中,所述潜在一致性模型训练执行前向扩散操作,生成噪声视频;将所述生成的噪声视频输入到学生模型和教师模型中,以预测去噪后的视频,最终生成视频。本发明能够有效减少视频生成过程中对大量采样步骤的需求,并保持视频在空间和运动方面的一致性,从而确保高质量视频的高效合成。
-
公开(公告)号:CN118710689A
公开(公告)日:2024-09-27
申请号:CN202410801280.X
申请日:2024-06-20
Applicant: 北京航空航天大学
IPC: G06T7/33 , G06N3/0464 , G06N3/084
Abstract: 本发明提供了一种基于区域相似性的可见光与红外图像配准方法,所述方法包括:用角点特征明显的图形渲染合成数据集,在该合成数据集上训练一个关键点检测器;对可见光和红外的配准图像对进行放缩与灰度处理,输入关键点检测器生成对应的关键点坐标,并将带关键点的红外和可见光图像做随机单应变换,模拟图像对之间的变换关系,通过Delaunay三角剖分生成网格,处理点集的拓扑关系和三角网格生成;将变换后的图像对输入描述符生成网络中,设计基于区域的损失函数,对网格之间的配准关系进行训练。所述方法有效解决了跨模态图像匹配中的角点不一致问题,实现了高精度、高抗干扰能力的图像配准,可应用于遥感图像处理、目标跟踪等领域。
-
-
-
-
-
-
-
-
-