基于方位角和俯仰角信息的双机无源定位方法

    公开(公告)号:CN109212475A

    公开(公告)日:2019-01-15

    申请号:CN201811209770.1

    申请日:2018-10-17

    Abstract: 基于方位角和俯仰角信息的双机无源定位方法,属于无源定位领域。传统方法进行无源定位时所需观测站数目多,定位精度低和测量误差大。本发明方法通过在模拟作战环境的空间直角坐标系中建立两架观测飞机与目标辐射源之间的空间观测模型;利用观测飞机观测目标辐射源到达观测飞机的方位角和俯仰角的观测信息;之后建立线性观测方程的矩阵形式;之后建立两架观测飞机联合的基本观测方程;之后建立两架观测飞机联合的矩阵形式的最终观测方程;之后利用最小二乘估计方法求解最终观测方程,得到目标辐射源的空间位置坐标。本发明计算出的目标坐标精度高,且复杂度低,计算量小,实现速度快。

    一种基于能量缝剪裁和RANSAC拟合的可见光图像海天线检测方法

    公开(公告)号:CN108447067A

    公开(公告)日:2018-08-24

    申请号:CN201810225608.2

    申请日:2018-03-19

    Abstract: 一种基于能量缝剪裁和RANSAC拟合的可见光图像海天线检测方法,本发明涉及可见光图像海天线检测方法。本发明为了解决传统方法进行海天线检测的速度慢、效率低,导致后期图像处理中操作困难、数据量大的问题。本发明包括:一、对RGB彩色可见光图像处理,找到图像中最高能量的能量缝;二、对海天线候选点,利用RANSAC方法进行拟合,得到海天线。本发明检测出可见光图像中最重要的一条连通路径。将此路径上的像素点作为海天线候选点,再利用RANSAC算法对其进行直线拟合,成功的排除噪声点和目标边沿等外点对海天线造成的偏移,使海天线检测出的速度提升10%左右以及准确性检测率为90%以上。本发明用于图像处理领域。

    基于卷积神经网络的视频语义分割方法

    公开(公告)号:CN110147763B

    公开(公告)日:2023-02-24

    申请号:CN201910420733.3

    申请日:2019-05-20

    Abstract: 基于卷积神经网络的视频语义分割方法,属于自动驾驶技术领域。为了解决现有自动驾驶领域对实时的目标分割处理速度过慢的问题。本发明将卷积神经网络模型应用到视频语义分割中,并采用注意力机制和深度可分离卷积,构建W形网络,并在W形网络的基础上利用帧间相关信息,结合光流场的特征聚合算法,来实现不同帧之间的特征传播,进一步提升视频语义分割的速度,大大降低分割所需要的时间。本发明用于视频语义分割。

    基于方位角和俯仰角信息的双机无源定位方法

    公开(公告)号:CN109212475B

    公开(公告)日:2020-08-25

    申请号:CN201811209770.1

    申请日:2018-10-17

    Abstract: 基于方位角和俯仰角信息的双机无源定位方法,属于无源定位领域。传统方法进行无源定位时所需观测站数目多,定位精度低和测量误差大。本发明方法通过在模拟作战环境的空间直角坐标系中建立两架观测飞机与目标辐射源之间的空间观测模型;利用观测飞机观测目标辐射源到达观测飞机的方位角和俯仰角的观测信息;之后建立线性观测方程的矩阵形式;之后建立两架观测飞机联合的基本观测方程;之后建立两架观测飞机联合的矩阵形式的最终观测方程;之后利用最小二乘估计方法求解最终观测方程,得到目标辐射源的空间位置坐标。本发明计算出的目标坐标精度高,且复杂度低,计算量小,实现速度快。

    一种基于FPGA的强光抑制夜视增强方法

    公开(公告)号:CN110047052A

    公开(公告)日:2019-07-23

    申请号:CN201910341110.7

    申请日:2019-04-25

    Abstract: 一种基于FPGA的强光抑制夜视增强方法,属于图像处理领域。现有对夜间可见光视频图像的处理存在不能同时对黑暗处和强光处的图像进行处理的技术缺陷,以及图像处理计算量大,不适用在FPGA中实现的问题。一种基于FPGA的强光抑制夜视增强方法,搭建基于核心处理器FPGA的硬件视频处理平台,并利用图像传感器获取当前场景的视频图像;对采集得到的视频图像,在FPGA中对夜间图像通过黑暗处图像增强、强光照抑制和bayer类型的视频图像转为RGB格式彩色视频图像输出的算法进行改进;对经过FPGA处理后的bayer数据进行彩色变换,得到RGB格式的彩色图像。本发明能够同时对图像中的黑暗处进行增强和对强光处进行抑制处理,从而提升整体视频图像的质量和视觉效果。

    基于卷积神经网络的视频语义分割方法

    公开(公告)号:CN110147763A

    公开(公告)日:2019-08-20

    申请号:CN201910420733.3

    申请日:2019-05-20

    Abstract: 基于卷积神经网络的视频语义分割方法,属于自动驾驶技术领域。为了解决现有自动驾驶领域对实时的目标分割处理速度过慢的问题。本发明将卷积神经网络模型应用到视频语义分割中,并采用注意力机制和深度可分离卷积,构建W形网络,并在W形网络的基础上利用帧间相关信息,结合光流场的特征聚合算法,来实现不同帧之间的特征传播,进一步提升视频语义分割的速度,大大降低分割所需要的时间。本发明用于视频语义分割。

Patent Agency Ranking