一种基于改进YOLO v4的轻量级行人车辆检测方法

    公开(公告)号:CN113378890A

    公开(公告)日:2021-09-10

    申请号:CN202110533245.0

    申请日:2021-05-17

    Abstract: 一种基于改进YOLO v4的轻量级行人车辆检测方法,包括以下步骤:1)将数据集划分为训练集、验证集和测试集;2)对数据集标签中的真实目标框进行聚类分析,获得先验框尺寸;3)利用Ghost模块搭建主干网络,用于提取数据集的视觉特征,在保证特征质量的同时缩减参数量;4)使用不同扩张率的空洞卷积提升网络的多尺度感知能力;5)对提取到的特征进行特征聚合;6)将聚合后的特征输入检测头,对目标的位置和类别进行预测,利用损失函数训练模型;7)将测试集图像输入训练得到的网络模型进行检测,输出目标的检测结果。本发明在保证行人车辆检测精度的同时,拥有较小的模型参数量,检测速度较快,降低了对于硬件设备性能的需求。

    基于全卷积神经网络多尺度特征的眼底图像血管分割方法

    公开(公告)号:CN111242949B

    公开(公告)日:2021-06-18

    申请号:CN202010002508.0

    申请日:2020-01-02

    Abstract: 一种基于全卷积神经网络多尺度特征的眼底图像血管分割方法,包括以下步骤:1)对眼底视网膜图像进行预处理;2)将预处理后的图像分割成图像块进行数据扩充;3)构建卷积神经网络模型,并利用扩充后的数据进行网络训练;4)将训练好的模型进行测试,得到分割结果。本发明通过连接一种编码和两种不同的解码结构,并采用多种跳过连接,可以克服血管图像数据集数量少、图像质量低导致的分割精度低等缺点,更加充分地融合不同深度的特征,并且有效缓解由网络深度增加导致的梯度消失问题,与传统分割方法相比,拥有更高的准确率与较高的鲁棒性。

    一种基于手机和无人机多传感参数融合的无人机运动跟踪方法

    公开(公告)号:CN108759826B

    公开(公告)日:2020-10-27

    申请号:CN201810323707.4

    申请日:2018-04-12

    Abstract: 一种基于手机和无人机多传感参数融合的无人机运动跟踪方法包括以下步骤:1)设计Android应用程序,获取手机的加速度计和陀螺仪参数,并将IMU参数制成ROS信息格式,最后通过Wi‑Fi发送至无人机端;2)获取手机和无人机的IMU参数,建立IMU状态模型,误差状态模型;3)根据获取到的图像提取运动目标;4)使用多速率扩展卡尔曼滤波对相对位姿进行滤波。本发明提出一种基于手机和无人机多传感参数融合的无人机运动跟踪方法,大大提高了跟踪的精度和鲁棒性。

    一种基于卷积稀疏表示的多源指纹图像融合方法

    公开(公告)号:CN111666807A

    公开(公告)日:2020-09-15

    申请号:CN202010309929.8

    申请日:2020-04-20

    Abstract: 一种基于卷积稀疏表示的多源指纹图像融合方法,包括如下步骤:1)获取预先配准好内部和外部指纹图像,采用基于卷积稀疏的形态成分分析模型的稀疏编码得到指纹图像的卡通与纹理分量的稀疏系数图;2)根据指纹图像质量评价指标方向确定度的值,确定权重添加方式,将其添加至两种源指纹图像的卡通与纹理分量中;3)采用基于卷积稀疏表示的融合方法对两种源指纹图像的卡通与纹理分量分别进行融合,由加权平均规则获得卡通与纹理分量的融合系数图,对两种分量的融合系数图进行重建得到融合指纹图像。本发明算法能够保留更多的指纹细节、纹理、边缘信息,保存两种源指纹图像质量较好的区域,得到质量更高的融合指纹图像。

    一种基于单幅条纹投影的多视角三维指纹获取方法

    公开(公告)号:CN111597880A

    公开(公告)日:2020-08-28

    申请号:CN202010258441.7

    申请日:2020-04-03

    Abstract: 一种基于单幅条纹投影的多视角三维指纹获取方法,通过基于条纹投影技术同时获取一幅无相位信息的二维指纹图和带有相位信息的指纹条纹图像,对带有相位信息的指纹条纹图像进行相位提取;进行相位解缠得到连续的相位,通过相位信息对单视角三维指纹完成重建;在获取多个视角的三维指纹后,在每个三维指纹对应的二维指纹图上找到端点或者分叉点作为特征点并且与下个相邻视角二维指纹进行特征点匹配,确定二维指纹的特征匹配点集,在通过特征点集的二维信息,在三维指纹上找到匹配的特征点;获得三维指纹的特征匹配点集后,进行三维指纹配准,重建出多视角的三维指纹模型。本发明测量速度快,通过多视角配准的方法采集出更加完整的三维指纹数据。

    一种基于全卷积神经网络的相位主值提取方法

    公开(公告)号:CN110163817A

    公开(公告)日:2019-08-23

    申请号:CN201910347403.6

    申请日:2019-04-28

    Abstract: 一种基于全卷积神经网络的相位主值提取方法,包括以下步骤:1)在计算机上将预先编码所需的按正弦分布的条纹图,预先编码好的条纹图投影至待测物,并使用工业相机采集待测物条纹图;2)构建全卷积神经网络模型,设定训练参数和损失函数,将1)中得到的图片输入至神经网络中,运行神经网络,获得所需的相位主值;3)使用基于质量图导向的方法对2)中得到的相位主值进行解缠,得到准确相位值。本发明提供一种图像采集的数量少、无需训练数据集以及训练过程、精度较高的基于全卷积神经网络的相位主值提取方法。

Patent Agency Ranking