基于卷积神经网络的视频语义分割方法

    公开(公告)号:CN110147763A

    公开(公告)日:2019-08-20

    申请号:CN201910420733.3

    申请日:2019-05-20

    Abstract: 基于卷积神经网络的视频语义分割方法,属于自动驾驶技术领域。为了解决现有自动驾驶领域对实时的目标分割处理速度过慢的问题。本发明将卷积神经网络模型应用到视频语义分割中,并采用注意力机制和深度可分离卷积,构建W形网络,并在W形网络的基础上利用帧间相关信息,结合光流场的特征聚合算法,来实现不同帧之间的特征传播,进一步提升视频语义分割的速度,大大降低分割所需要的时间。本发明用于视频语义分割。

    一种基于方位角和俯仰角信息的双机无源定位方法

    公开(公告)号:CN109991572A

    公开(公告)日:2019-07-09

    申请号:CN201910341112.6

    申请日:2019-04-25

    Abstract: 一种基于方位角和俯仰角信息的双机无源定位方法,属于目标定位领域。现有的传统单站无源定位无法完成瞬时定位,且多站定位的加权最小二乘(WLS)表达形式复杂,时间累积特性不好的问题。一种基于方位角和俯仰角信息的双机无源定位方法,为了对定位目标的位置坐标进行求解,首先根据实际定位场景,构建利用到达角度确定/构成的双站观测模型,再由本发明提出的到达信号的方位角和俯仰角座位模型输入,同时考虑观测误差进行目标的高精度定位。本发明能够实现瞬时定位,简化了无源定位过程,时间累积收敛性能好。

    基于方位角和俯仰角信息的双机无源定位方法

    公开(公告)号:CN109212475A

    公开(公告)日:2019-01-15

    申请号:CN201811209770.1

    申请日:2018-10-17

    Abstract: 基于方位角和俯仰角信息的双机无源定位方法,属于无源定位领域。传统方法进行无源定位时所需观测站数目多,定位精度低和测量误差大。本发明方法通过在模拟作战环境的空间直角坐标系中建立两架观测飞机与目标辐射源之间的空间观测模型;利用观测飞机观测目标辐射源到达观测飞机的方位角和俯仰角的观测信息;之后建立线性观测方程的矩阵形式;之后建立两架观测飞机联合的基本观测方程;之后建立两架观测飞机联合的矩阵形式的最终观测方程;之后利用最小二乘估计方法求解最终观测方程,得到目标辐射源的空间位置坐标。本发明计算出的目标坐标精度高,且复杂度低,计算量小,实现速度快。

    一种基于能量缝剪裁和RANSAC拟合的可见光图像海天线检测方法

    公开(公告)号:CN108447067A

    公开(公告)日:2018-08-24

    申请号:CN201810225608.2

    申请日:2018-03-19

    Abstract: 一种基于能量缝剪裁和RANSAC拟合的可见光图像海天线检测方法,本发明涉及可见光图像海天线检测方法。本发明为了解决传统方法进行海天线检测的速度慢、效率低,导致后期图像处理中操作困难、数据量大的问题。本发明包括:一、对RGB彩色可见光图像处理,找到图像中最高能量的能量缝;二、对海天线候选点,利用RANSAC方法进行拟合,得到海天线。本发明检测出可见光图像中最重要的一条连通路径。将此路径上的像素点作为海天线候选点,再利用RANSAC算法对其进行直线拟合,成功的排除噪声点和目标边沿等外点对海天线造成的偏移,使海天线检测出的速度提升10%左右以及准确性检测率为90%以上。本发明用于图像处理领域。

    基于卷积神经网络的视频语义分割方法

    公开(公告)号:CN110147763B

    公开(公告)日:2023-02-24

    申请号:CN201910420733.3

    申请日:2019-05-20

    Abstract: 基于卷积神经网络的视频语义分割方法,属于自动驾驶技术领域。为了解决现有自动驾驶领域对实时的目标分割处理速度过慢的问题。本发明将卷积神经网络模型应用到视频语义分割中,并采用注意力机制和深度可分离卷积,构建W形网络,并在W形网络的基础上利用帧间相关信息,结合光流场的特征聚合算法,来实现不同帧之间的特征传播,进一步提升视频语义分割的速度,大大降低分割所需要的时间。本发明用于视频语义分割。

    一种结合边缘检测的暗通道图像去雾方法

    公开(公告)号:CN107437241B

    公开(公告)日:2020-09-22

    申请号:CN201710677115.8

    申请日:2017-08-09

    Abstract: 一种结合边缘检测的暗通道图像去雾方法,本发明涉及结合边缘检测的暗通道图像去雾方法。本发明的目的是为了解决现有技术对图像进行去雾处理存在处理后图像颜色较暗、天空等区域容易出现颜色失真及边沿模糊等的问题。过程为:得到源图像、计算图像暗通道、大气光值、图像透射率、细化后的图像透射率、无雾图像、提高亮度后的无雾图像;将源图像转换成灰度图像;得到进行高斯低通滤波后的灰度图像;判断前20分之一行是否亮度平稳;判断源图像前40分之一行RGB三个通道的值是否平稳;对全方向的边沿图像进行二值化,得到去噪后的图像;得到未细化和细化的天空区域图像;得到最终的处理结果图像。本发明用于图像处理领域。

    基于方位角和俯仰角信息的双机无源定位方法

    公开(公告)号:CN109212475B

    公开(公告)日:2020-08-25

    申请号:CN201811209770.1

    申请日:2018-10-17

    Abstract: 基于方位角和俯仰角信息的双机无源定位方法,属于无源定位领域。传统方法进行无源定位时所需观测站数目多,定位精度低和测量误差大。本发明方法通过在模拟作战环境的空间直角坐标系中建立两架观测飞机与目标辐射源之间的空间观测模型;利用观测飞机观测目标辐射源到达观测飞机的方位角和俯仰角的观测信息;之后建立线性观测方程的矩阵形式;之后建立两架观测飞机联合的基本观测方程;之后建立两架观测飞机联合的矩阵形式的最终观测方程;之后利用最小二乘估计方法求解最终观测方程,得到目标辐射源的空间位置坐标。本发明计算出的目标坐标精度高,且复杂度低,计算量小,实现速度快。

    一种基于FPGA的强光抑制夜视增强方法

    公开(公告)号:CN110047052A

    公开(公告)日:2019-07-23

    申请号:CN201910341110.7

    申请日:2019-04-25

    Abstract: 一种基于FPGA的强光抑制夜视增强方法,属于图像处理领域。现有对夜间可见光视频图像的处理存在不能同时对黑暗处和强光处的图像进行处理的技术缺陷,以及图像处理计算量大,不适用在FPGA中实现的问题。一种基于FPGA的强光抑制夜视增强方法,搭建基于核心处理器FPGA的硬件视频处理平台,并利用图像传感器获取当前场景的视频图像;对采集得到的视频图像,在FPGA中对夜间图像通过黑暗处图像增强、强光照抑制和bayer类型的视频图像转为RGB格式彩色视频图像输出的算法进行改进;对经过FPGA处理后的bayer数据进行彩色变换,得到RGB格式的彩色图像。本发明能够同时对图像中的黑暗处进行增强和对强光处进行抑制处理,从而提升整体视频图像的质量和视觉效果。

    一种结合边缘检测的暗通道图像去雾方法

    公开(公告)号:CN107437241A

    公开(公告)日:2017-12-05

    申请号:CN201710677115.8

    申请日:2017-08-09

    Abstract: 一种结合边缘检测的暗通道图像去雾方法,本发明涉及结合边缘检测的暗通道图像去雾方法。本发明的目的是为了解决现有技术对图像进行去雾处理存在处理后图像颜色较暗、天空等区域容易出现颜色失真及边沿模糊等的问题。过程为:得到源图像、计算图像暗通道、大气光值、图像透射率、细化后的图像透射率、无雾图像、提高亮度后的无雾图像;将源图像转换成灰度图像;得到进行高斯低通滤波后的灰度图像;判断前20分之一行是否亮度平稳;判断源图像前40分之一行RGB三个通道的值是否平稳;对全方向的边沿图像进行二值化,得到去噪后的图像;得到未细化和细化的天空区域图像;得到最终的处理结果图像。本发明用于图像处理领域。

Patent Agency Ranking