一种基于角度径向变换和质心的夜视视频步态识别方法

    公开(公告)号:CN107122711A

    公开(公告)日:2017-09-01

    申请号:CN201710167560.X

    申请日:2017-03-20

    Applicant: 东华大学

    CPC classification number: G06K9/00348 G06K9/00744 G06K9/00771

    Abstract: 本发明提供了一种基于角度径向变换和质心的夜视视频步态识别方法,首先采集红外视频图像;从所采集的红外视频图像中提取人体步态轮廓,并对所提取的人体步态轮廓序列进行预处理;基于预处理后的人体步态轮廓序列构建人体的步态能量图;提取步态能量图的特征向量,将步态能量图的角度径向变换系数和质心向量作为特征向量;通过主成分分析方法降低特征向量的维数;把降维后的特征向量和样本训练集进行识别匹配,实现红外夜视图像的步态识别。本发明提供的方法可以更加合理有效的提取到夜视视频图像步态能量图的有效信息,既提高了步态识别的效率,又提高了步态识别的正确率。

    基于视觉里程计的单目红外视频三维重建方法

    公开(公告)号:CN106846417A

    公开(公告)日:2017-06-13

    申请号:CN201710066349.9

    申请日:2017-02-06

    Applicant: 东华大学

    CPC classification number: G06T2207/10016 G06T2207/10048 G06T2207/30252

    Abstract: 本发明提供了一种基于视觉里程计的单目红外视频三维重建方法,首先进行红外热像仪标定;然后构建直接法和稀疏法视觉里程计模型;再进行帧管理,从待处理的连续红外图像序列中产生关键帧,并边缘化关键帧;对关键帧上的像素进行点管理;最后对关键帧进行滑动窗口优化,最小化直接法和稀疏法视觉里程计模型的光度误差,借助高斯‑牛顿法迭代求解出红外热像仪位姿、内参、空间点的逆深度,最终得到场景的三维点云。本发明将直接法应用于最小化光度误差,跳过传统的特征点检测与匹配,通过对像素的灰度值的直接操作,直接计算待优化的光度误差所依赖的所有变量,从而实现夜视场景的三维重建,保证了三维重建的实时性,增强了场景的空间感。

    基于加速区域卷积神经网络的行人检测与跟踪方法

    公开(公告)号:CN106845430A

    公开(公告)日:2017-06-13

    申请号:CN201710066312.6

    申请日:2017-02-06

    Applicant: 东华大学

    CPC classification number: G06K9/00362 G06K9/6256 G06N3/08

    Abstract: 本发明涉及一种基于加速区域卷积神经网络的行人识别与跟踪方法,首先通过载有红外摄像头的机器人在夜晚采集训练、测试数据集,对训练、测试数据集按要求预处理,然后对所有训练和测试图片进行真实目标位置标注并记录到样本文件中;再构建加速区域卷积神经网络,利用训练数据集训练加速区域卷积神经网络,对网络输出利用非极大值抑制算法求出最后的属于行人区域的概率以及区域的边界框;利用测试数据集测试网络的准确度,得到符合要求的网络模型;将夜间机器人采集的图片输入加速区域卷积神经网络模型,模型在线实时输出属于行人区域的概率以及区域的边界框。本发明能够有效地识别红外图像中的行人,对红外视频中的行人目标能够实时地进行跟踪。

    基于红外图像和雷达数据的夜间无人车场景深度估计方法

    公开(公告)号:CN106981080A

    公开(公告)日:2017-07-25

    申请号:CN201710106002.2

    申请日:2017-02-24

    Applicant: 东华大学

    CPC classification number: G06T2207/10044 G06T2207/10048 G06T2207/20084

    Abstract: 本发明提供了一种基于红外图像和雷达数据的夜间无人车场景深度估计方法,首先构建夜视图像数据集,夜视图像数据集中包括原始样本图像及对原始样本图像进行预分类后的雷达数据,将原始样本图像和雷达数据写入对应的文本文件中;然后构建深度卷积‑反卷积神经网络,利用夜视图像数据集训练深度卷积‑反卷积神经网络;再实时获取待处理的图像,将待处理的图像输入深度卷积‑反卷积神经网络,通过深度卷积神经网络得到特征图,将特征图输入反卷积网络得到特征图中每个像素点所属类别,输出概率图;最后将概率图,采取反log变换得到每个像素点的估计深度。试验证明,本发明提供的方法能够有效估计夜间场景的深度,保证估计的正确性和实时性。

    基于单目红外的夜间机器人视觉大视场三维构建方法

    公开(公告)号:CN106960442A

    公开(公告)日:2017-07-18

    申请号:CN201710117065.8

    申请日:2017-03-01

    Applicant: 东华大学

    Abstract: 本发明涉及一种基于单目红外的夜间机器人视觉大视场三维构建方法,该方法包括基于点特征算子进行红外图像的大视场拼接和红外大视场图像的三维重建处理两个步骤。首先将水平扫描式获取的一组红外图像投影到柱面空间坐标系中,在相邻图像的重合区域中提取SIFT特征,根据特征点匹配优化算法估计单应性变换矩阵以进行配准对齐,然后使用多分辨加权算法进行融合得到全景拼接图像。之后对红外大视场图像进行超像素分割以及多尺度特征提取,将分割图像和特征信息输入到已训练的面板参数马尔可夫模型中进行面板参数估计,最后对红外大视场图像的进行深度估计,并构建红外大视场三维模型,从而获得红外大视场三维图像。

    基于深度卷积‑反卷积神经网络的夜视图像场景识别方法

    公开(公告)号:CN106650690A

    公开(公告)日:2017-05-10

    申请号:CN201611253882.8

    申请日:2016-12-30

    Applicant: 东华大学

    CPC classification number: G06K9/00664 G06K9/6273

    Abstract: 本发明涉及一种基于深度卷积‑反卷积神经网络的夜视图像场景识别方法,其特征在于,包括如下步骤:步骤1:构建夜视图像数据集;步骤2:对原始样本图像进行镜面对称处理;步骤3:构建深度卷积‑反卷积神经网络;步骤4:实时获取待处理的大小为h×w的图像,将图像输入深度卷积‑反卷积神经网络后,得到大小为h×w的特征图;步骤5:将夜视图像中的物体分为k个不同类别,采用多分类算法确定步骤4得到的特征图中每个像素点所属类别,输出大小为h×w×k的概率图。本发明显著增强了夜视图像的场景感知性,提高了目标识别的效率,降低了人工操作的复杂度。

Patent Agency Ranking