基于卷积神经网络的太阳能电池片断栅缺陷检测方法

    公开(公告)号:CN108564577A

    公开(公告)日:2018-09-21

    申请号:CN201810324996.X

    申请日:2018-04-12

    Abstract: 本发明涉及图像处理与计算机视觉技术领域,特别涉及基于密集连接卷积神经网络的太阳能电池片断栅缺陷检测方法,包括:将获取到的多晶硅太阳能电池片断栅缺陷图像分为训练集和测试集;通过水平积分投影提取感兴趣的目标候选区域,通过训练集训练基于密集连接卷积神经网络的二分类分类器;将测试集送入训练好的分类器中进行分类,检测出缺陷区域;根据断栅缺陷的尺度分布特点计算连通域剔除检测出的离散位置,绘制缺陷位置的外接矩形得到检测结果;本发明首次使用了密集连接神经网络的结构训练图像块分类器来实现缺陷检测的目的,能在复杂多样的背景中准确的检测出缺陷图像,并给出缺陷区域的位置,完成对产品质量的自动监控。

    一种基于姿态外形和运动信息的双通道红外行为识别方法

    公开(公告)号:CN108021889A

    公开(公告)日:2018-05-11

    申请号:CN201711269139.6

    申请日:2017-12-05

    Abstract: 本发明涉及一种基于姿态外形和运动信息的双通道红外行为识别方法。该方法包含以下步骤,S1:在运动信息通道中,对原始的红外图像序列提取变分光流特征,得到光流图像序列。S2:将光流图像序列分为训练集和测试集,微调C3D网络后,提取网络特征。S3:在姿势外形通道中,对红外图像做姿势估计,提取出人体骨架图。S4:对人体骨架图作高斯平滑,得出姿态特征图。S5:将姿态特征图分成训练测试集,微调C3D网络后,提取网络特征。S6:对两个网络特征作前期融合,得到最终特征。S7:用SVM分类器对最终特征进行分类识别,得出识别结果。本发明全面地利用视频信息,一方面在空间上采取姿势特征图作为更有效的外形信息,另一方面提高识别效果,为后续研究提供了技术支撑。

    基于图像块深度学习特征的红外行人检测方法

    公开(公告)号:CN106096561A

    公开(公告)日:2016-11-09

    申请号:CN201610430945.6

    申请日:2016-06-16

    Abstract: 本发明涉及一种基于图像块深度学习特征的红外行人检测方法,属于图像处理与计算机视觉技术领域。该方法将数据集分为训练集和测试集,在训练阶段,首先在红外行人数据集的正负样本上滑动提取小图像块,然后进行聚类,对每一类图像块训练一个卷积神经网络。然后用训练好的卷积神经网络组对正负样本进行特征提取,并训练SVM分类器。在测试阶段,首先对测试图像提取感兴趣区域,然后对感兴趣区域使用训练好的卷积神经网络组提取特征,最后利用SVM分类器进行预测。本发明以检验每个感兴趣区域是否属于行人区域的方式,达到行人检测的目的,能够在检测场景复杂、环境温度较高、行人尺度姿态差异大等情况下准确的检测出红外图像中的行人,并为后续智能视频等相关领域的研究提供支持。

    基于图像扩散速度模型和色彩特征的人脸活体检测方法

    公开(公告)号:CN108596082A

    公开(公告)日:2018-09-28

    申请号:CN201810365304.6

    申请日:2018-04-20

    Abstract: 本发明涉及一种基于图像扩散速度模型和色彩特征的人脸活体检测方法,属于图像处理与计算机视觉技术领域。包含:S1对所有人脸图像做归一化处理,并将其分为训练集和测试集;S2将扩散速度图像送入卷积神经网络,使用训练集训练卷积神经网络,并使用该网络获取测试集的分类概率;S3提取人脸图像色彩特征,训练SVM模型,并使用该模型获取测试集的分类概率;S4根据训练集在卷积神经网络和SVM模型中的分类概率分别训练权重网络,得到各自最优权重;S5将测试集在卷积神经网络和SVM中的分类概率做加权融合,得到最终检测结果。本发明同时结合图像扩散速度特征和色彩特征更为全面地利用了图像信息,提高了人脸活体检测的准确率。

    基于目标检测和人体姿态估计的坐姿检测方法

    公开(公告)号:CN108549876A

    公开(公告)日:2018-09-18

    申请号:CN201810357864.7

    申请日:2018-04-20

    Abstract: 本发明涉及一种基于目标检测和人体姿态估计的坐姿检测方法,属于图像处理与计算机视觉技术领域。本发明首先提取由特征I和特征II融合形成的融合特征,并将融合后的特征输入CNN中,若融合特征来自于训练集,则用于训练网络参数;若融合特征来自验证集,则用于验证网络参数,并通过反向传播算法传递误差信号,更新梯度,寻找最优值,利用柔性最大激活函数Softmax做分类回归,得到最终的分类结果和分类准确率。本发明解决了现有坐姿检测中在复杂多目标情况下目标丢失的问题,摒弃了传统的依赖可穿戴设备或传感器的方法,采用了基于目标检测和人体姿态估计的方法,使得在背景复杂,人群密集的情况下能够准确定各个任务目标的坐姿。

    基于图像块深度学习特征的红外行人检测方法

    公开(公告)号:CN106096561B

    公开(公告)日:2020-02-07

    申请号:CN201610430945.6

    申请日:2016-06-16

    Abstract: 本发明涉及一种基于图像块深度学习特征的红外行人检测方法,属于图像处理与计算机视觉技术领域。该方法将数据集分为训练集和测试集,在训练阶段,首先在红外行人数据集的正负样本上滑动提取小图像块,然后进行聚类,对每一类图像块训练一个卷积神经网络。然后用训练好的卷积神经网络组对正负样本进行特征提取,并训练SVM分类器。在测试阶段,首先对测试图像提取感兴趣区域,然后对感兴趣区域使用训练好的卷积神经网络组提取特征,最后利用SVM分类器进行预测。本发明以检验每个感兴趣区域是否属于行人区域的方式,达到行人检测的目的,能够在检测场景复杂、环境温度较高、行人尺度姿态差异大等情况下准确的检测出红外图像中的行人,并为后续智能视频等相关领域的研究提供支持。

    一种基于运动特征和深度学习特征的无人机小目标检测方法

    公开(公告)号:CN107862705B

    公开(公告)日:2021-03-30

    申请号:CN201711166232.4

    申请日:2017-11-21

    Abstract: 本发明涉及一种基于运动特征和深度学习特征的无人机小目标检测方法,属于图像处理与计算机视觉技术领域。首先通过视频稳像算法对输入的视频数据集处理,补偿摄像头运动;分析图像中检测运动候选目标区域;将视频数据集分为两部分,利用训练数据集训练得到改进的候选区域生成网络模型;通过训练得到的基于深度特征的候选区域生成网络,通过该网络对测试集的视频图像生成候选目标;将候选目标区域进行融合;利用训练数据集训练得到基于双通道的深度神经网络的模型,并应用该模型得到识别结果。将基于多层深度特征的目标跟踪方法应用于上一步的识别结果,得到最终的无人机所在位置。本发明可准确检测出视频图像中的无人机,为后续无人机智能监控相关领域的研究提供支持。

    基于人工设计特征和深度学习特征自适应融合的红外行为识别方法

    公开(公告)号:CN105787458B

    公开(公告)日:2019-01-04

    申请号:CN201610139450.8

    申请日:2016-03-11

    Abstract: 本发明涉及一种基于人工设计特征和深度学习特征自适应融合的红外行为识别方法,包括以下步骤:S1:通过人工设计特征模块,对原始视频进行改进的密集轨迹特征提取;S2:对提取到的人工设计特征进行特征编码;S3:通过CNN特征模块,对原始视频图像序列,利用一种变分光流算法提取光流信息,得到对应光流图像序列;S4:利用卷积神经网络,对步骤S3中得到的光流图序列提取CNN特征;S5:将数据集分为训练集和测试集;对训练集数据,通过权重优化网络学习权重,利用学习到的权重将CNN特征分类网络和人工设计特征分类网络的概率输出进行加权融合,通过对比识别结果得出最优权重,并将其应用于测试集数据分类。本方法创新了特征融合方式,提高了红外视频中行为识别的可靠性,对后续视频分析工作有重大意义。

    基于人工设计特征和深度学习特征自适应融合的红外行为识别方法

    公开(公告)号:CN105787458A

    公开(公告)日:2016-07-20

    申请号:CN201610139450.8

    申请日:2016-03-11

    Abstract: 本发明涉及一种基于人工设计特征和深度学习特征自适应融合的红外行为识别方法,包括以下步骤:S1:通过人工设计特征模块,对原始视频进行改进的密集轨迹特征提取;S2:对提取到的人工设计特征进行特征编码;S3:通过CNN特征模块,对原始视频图像序列,利用一种变分光流算法提取光流信息,得到对应光流图像序列;S4:利用卷积神经网络,对步骤S3中得到的光流图序列提取CNN特征;S5:将数据集分为训练集和测试集;对训练集数据,通过权重优化网络学习权重,利用学习到的权重将CNN特征分类网络和人工设计特征分类网络的概率输出进行加权融合,通过对比识别结果得出最优权重,并将其应用于测试集数据分类。本方法创新了特征融合方式,提高了红外视频中行为识别的可靠性,对后续视频分析工作有重大意义。

    一种基于运动特征和深度学习特征的无人机小目标检测方法

    公开(公告)号:CN107862705A

    公开(公告)日:2018-03-30

    申请号:CN201711166232.4

    申请日:2017-11-21

    Abstract: 本发明涉及一种基于运动特征和深度学习特征的无人机小目标检测方法,属于图像处理与计算机视觉技术领域。首先通过视频稳像算法对输入的视频数据集处理,补偿摄像头运动;分析图像中检测运动候选目标区域;将视频数据集分为两部分,利用训练数据集训练得到改进的候选区域生成网络模型;通过训练得到的基于深度特征的候选区域生成网络,通过该网络对测试集的视频图像生成候选目标;将候选目标区域进行融合;利用训练数据集训练得到基于双通道的深度神经网络的模型,并应用该模型得到识别结果。将基于多层深度特征的目标跟踪方法应用于上一步的识别结果,得到最终的无人机所在位置。本发明可准确检测出视频图像中的无人机,为后续无人机智能监控相关领域的研究提供支持。

Patent Agency Ranking