基于OpenCL的卷积神经网络并行处理方法

    公开(公告)号:CN110110844B

    公开(公告)日:2021-01-12

    申请号:CN201910331464.3

    申请日:2019-04-24

    Abstract: 本发明提出了一种基于OpenCL的卷积神经网络并行处理方法,主要解决现有卷积神经网络并行化处理中模型复杂度高、运行速度缓慢的问题。实现步骤为:获取图像数据矩阵的重组矩阵;获取权值矩阵;分块并行计算权值矩阵与重组矩阵的乘积;对乘积矩阵进行并行批量归一化;输出特征值矩阵。本发明利用计算机图形处理器GPU中大量的并行计算单元,将卷积神经网络的卷积过程转化为大型矩阵乘法,分块并行计算权值矩阵与重组矩阵的乘积,简化了卷积层数据的处理过程,优化了数据的访存方式,提高了数据的复用率,使得本发明大幅提高了卷积神经网络的运行速度。

    基于OpenCL的卷积神经网络并行处理方法

    公开(公告)号:CN110110844A

    公开(公告)日:2019-08-09

    申请号:CN201910331464.3

    申请日:2019-04-24

    Abstract: 本发明提出了一种基于OpenCL的卷积神经网络并行处理方法,主要解决现有卷积神经网络并行化处理中模型复杂度高、运行速度缓慢的问题。实现步骤为:获取图像数据矩阵的重组矩阵;获取权值矩阵;分块并行计算权值矩阵与重组矩阵的乘积;对乘积矩阵进行并行批量归一化;输出特征值矩阵。本发明利用计算机图形处理器GPU中大量的并行计算单元,将卷积神经网络的卷积过程转化为大型矩阵乘法,分块并行计算权值矩阵与重组矩阵的乘积,简化了卷积层数据的处理过程,优化了数据的访存方式,提高了数据的复用率,使得本发明大幅提高了卷积神经网络的运行速度。

    基于深度卷积特征分层响应融合的目标跟踪方法

    公开(公告)号:CN110084836B

    公开(公告)日:2022-03-04

    申请号:CN201910341675.5

    申请日:2019-04-26

    Abstract: 本发明公开了一种基于深度特征分层响应融合的目标跟踪方法,主要解决现有技术在当目标发生严重遮挡、背景杂乱时,导致跟踪失败的问题。其实现步骤为:1)确定待跟踪目标初始位置,计算第一帧相关滤波器的候选区域目标特征和候选区域循环特征矩阵;2)读取下一帧目标图像,并通过前一帧相关滤波器模板计算目标图像特征响应矩阵,根据该矩阵最大值预测待跟踪目标位置;3)更新相关滤波器模板;6)判断图像是否为待跟踪视频序列的最后一帧图像,若是,结束跟踪,否则返回2)。本发明能在待跟踪目标发生严重遮挡时,利用细节置信图中的背景信息预测待跟踪目标位置,提高了跟踪的准确度,可用于视频监控、机器人导航和定位,无人驾驶的跟踪。

    基于模板匹配和深度分类网络的运动目标跟踪方法

    公开(公告)号:CN110033473A

    公开(公告)日:2019-07-19

    申请号:CN201910297980.9

    申请日:2019-04-15

    Abstract: 本发明公开了一种基于模板匹配和深度分类网络的运动目标跟踪方法,主要解决现有技术目标检测速度慢,及在目标发生外观形变、遮挡时时跟踪不准确的问题。其实现方案为:1)搭建双残差深度分类网络,并对其进行训练;2)在双残差深度分类网络中提取模板网络和检测网络;3)利用模板网络提取模板特征;4)利用检测网络提取检测特征;5)将模板特征在检测特征上进行模板匹配,得到模板匹配图;6)根据模板匹配图确定目标位置;7)根据目标位置更新模板特征;8)判断当前帧是否为最后一帧,若是,结束目标跟踪,否则,将更新后的模板特征作为下一帧的模板特征,返回4)。本发明跟踪速度快,准确率高,用于对剧烈形变、光照变化视频目标跟踪。

    基于样本组合和深度检测网络的运动目标跟踪方法

    公开(公告)号:CN109377511A

    公开(公告)日:2019-02-22

    申请号:CN201811004598.6

    申请日:2018-08-30

    Abstract: 本发明公开了一种基于样本组合和深度检测网络的运动目标跟踪方法,本发明实现步骤为:(1)利用样本组合的数据增强方法生成训练样本集;(2)设置训练样本集的归一化标签;(3)构建深度检测网络;(4)利用训练样本集训练深度检测网络;(5)将含待跟踪目标的彩色视频图像序列依次输入训练好的深度检测网络中,输出运动目标跟踪坐标。本发明利用样本组合的数据增强方法生成训练样本集,训练深度检测网络,利用备选框置信度值确定待跟踪目标的位置,解决了目标识别速度慢以及当目标发生外观形变时跟踪不准确的问题。

    基于样本组合和深度检测网络的运动目标跟踪方法

    公开(公告)号:CN109377511B

    公开(公告)日:2021-09-03

    申请号:CN201811004598.6

    申请日:2018-08-30

    Abstract: 本发明公开了一种基于样本组合和深度检测网络的运动目标跟踪方法,本发明实现步骤为:(1)利用样本组合的数据增强方法生成训练样本集;(2)设置训练样本集的归一化标签;(3)构建深度检测网络;(4)利用训练样本集训练深度检测网络;(5)将含待跟踪目标的彩色视频图像序列依次输入训练好的深度检测网络中,输出运动目标跟踪坐标。本发明利用样本组合的数据增强方法生成训练样本集,训练深度检测网络,利用备选框置信度值确定待跟踪目标的位置,解决了目标识别速度慢以及当目标发生外观形变时跟踪不准确的问题。

    基于样本扩充和深度分类网络的运动目标跟踪方法

    公开(公告)号:CN109345559B

    公开(公告)日:2021-08-06

    申请号:CN201811005680.0

    申请日:2018-08-30

    Abstract: 本发明公开了一种基于样本扩充和深度分类网络的运动目标跟踪方法。本发明实现的步骤如下:(1)搭建深度分类网络模型;(2)生成正样本集;(3)生成负样本集;(4)训练深度分类网络模型;(5)提取目标特征网络模型;(6)预测下一帧图像的目标位置;(7)判断当前帧图像是否为待跟踪视频序列的最后一帧视频图像,若是,则执行步骤(8),否则,执行步骤(6);(8)结束对运动待跟踪目标的跟踪。本发明使用扩充的样本集训练深度分类网络,利用特征响应值确定待跟踪目标的位置,解决了当目标发生外观形变、遮挡时导致跟踪不准确的问题。

    基于模板匹配和深度分类网络的运动目标跟踪方法

    公开(公告)号:CN110033473B

    公开(公告)日:2021-04-20

    申请号:CN201910297980.9

    申请日:2019-04-15

    Abstract: 本发明公开了一种基于模板匹配和深度分类网络的运动目标跟踪方法,主要解决现有技术目标检测速度慢,及在目标发生外观形变、遮挡时跟踪不准确的问题。其实现方案为:1)搭建双残差深度分类网络,并对其进行训练;2)在双残差深度分类网络中提取模板网络和检测网络;3)利用模板网络提取模板特征;4)利用检测网络提取检测特征;5)将模板特征在检测特征上进行模板匹配,得到模板匹配图;6)根据模板匹配图确定目标位置;7)根据目标位置更新模板特征;8)判断当前帧是否为最后一帧,若是,结束目标跟踪,否则,将更新后的模板特征作为下一帧的模板特征,返回4)。本发明跟踪速度快,准确率高,用于对剧烈形变、光照变化视频目标跟踪。

    基于生成对抗网络的半监督图像分类方法

    公开(公告)号:CN110097103A

    公开(公告)日:2019-08-06

    申请号:CN201910323702.6

    申请日:2019-04-22

    Abstract: 本发明公开了一种基于生成对抗网络的半监督图像分类方法,主要解决现有的无监督学习分类精度低和半监督学习需要大量精确标签的问题,其实现步骤为:1)选取并下载标准图像训练样本和测试样本;2)设定网络监督学习相关参数,并搭建一个由生成器网络、判别器网络和辅助分类器并列组成的生成对抗网络;3)利用随机梯度下降方法对生成对抗网络进行训练;4)将待分类的测试样本输入到训练好的生成对抗网络模型中,输出待检测图像的类别。本发明提高了无监督学习的图像分类精度,并能够在只含有少量精确标注样本的样本集上获得很好的图像分类效果,可用于实际场景中目标分类。

    基于深度卷积特征分层响应融合的目标跟踪方法

    公开(公告)号:CN110084836A

    公开(公告)日:2019-08-02

    申请号:CN201910341675.5

    申请日:2019-04-26

    Abstract: 本发明公开了一种基于深度特征分层响应融合的目标跟踪方法,主要解决现有技术在当目标发生严重遮挡、背景杂乱时,导致跟踪失败的问题。其实现步骤为:1)确定待跟踪目标初始位置,计算第一帧相关滤波器的候选区域目标特征和候选区域循环特征矩阵;2)读取下一帧目标图像,并通过前一帧相关滤波器模板计算目标图像特征响应矩阵,根据该矩阵最大值预测待跟踪目标位置;3)更新相关滤波器模板;6)判断图像是否为待跟踪视频序列的最后一帧图像,若是,结束跟踪,否则返回2)。本发明能在待跟踪目标发生严重遮挡时,利用细节置信图中的背景信息预测待跟踪目标位置,提高了跟踪的准确度,可用于视频监控、机器人导航和定位,无人驾驶的跟踪。

Patent Agency Ranking