一种面向彩色图像的车辆检测方法

    公开(公告)号:CN110543836A

    公开(公告)日:2019-12-06

    申请号:CN201910759439.5

    申请日:2019-08-16

    Abstract: 公开一种面向彩色图像的车辆检测方法,其对所要检测的物体的外观描述能力强、适应能力强、需要的训练样本适度、时间消耗低。该方法包括以下步骤:(1)通过车辆检测的特征设计和分层稀疏-稠密字典集合建模,为车辆类别、非车辆类别构建具有类别判别能力的字典集合;(2)滑动窗口扫描与窗口特征提取;基于稀疏-稠密字典集合的窗口分类;基于核密度估计非极大抑制的重复检测框去除以过滤高度重叠的检测结果。

    一种基于超像素深度网络的室内场景语义分割方法

    公开(公告)号:CN110517270A

    公开(公告)日:2019-11-29

    申请号:CN201910642478.7

    申请日:2019-07-16

    Abstract: 一种基于超像素深度网络的室内场景语义分割方法,能够缓解像素作为深度网络计算单元带来的图像语义分割边界不清晰以及计算量大的问题,同时打破现有深度网络方法无法接受无序的超像素集合作为输入的局限。该方法包括:(1)对RGB颜色图像使用简单线性迭代聚类分割算法SLIC得到超像素集合;(2)计算每一个超像素的最小包围矩形;(3)基于超像素深度网络RCN提取图像的颜色特征与深度特征;(4)用每一个超像素的最小包围矩形,在颜色与深度的多层次特征图上进行裁剪和重塑操作,得到每一个超像素颜色多层次特征表示与深度多层次特征表示;(5)融合超像素颜色多层次特征与深度多层次特征得到超像素特征,对超像素进行分类。

    一种基于深度图的手部特征点检测方法

    公开(公告)号:CN104899600B

    公开(公告)日:2018-07-17

    申请号:CN201510282688.1

    申请日:2015-05-28

    Abstract: 本发明公开了一种基于深度图的手部特征点检测方法,包括步骤:(1)利用Kinect采集到人体运动视频序列来提取手部,通过深度图利用OPENNI得到人体手部位置信息,通过设定搜索区域及深度阈值方法,初步获得手心点;利用OPENCV的find_contours函数得到手部轮廓;通过找到手轮廓内最大内接圆圆心,精确确定手部手心点,通过计算所有手部内部点到轮廓点之间的最短距离m,在最短距离中找到最大值M,M所代表的手部内部点为手心点,内接圆半径R=M;(2)通过不断对手部轮廓进行高斯平滑,并结合曲率阈值从而得到CSS曲率图,根据图中CSS轮廓分析极限值得出手部指尖点及指谷点坐标,补全根据CSS曲率图无法得到的手部指谷点;(3)补全缺失手指。

    一种三角网格模型的优化方法

    公开(公告)号:CN105608732B

    公开(公告)日:2018-07-13

    申请号:CN201510961925.7

    申请日:2015-12-18

    Abstract: 本发明公开了一种三角网格模型的优化方法,其能够对三角网格模型进行有效地优化,获取与原始网格更相似的采样网格。包括步骤:(1)基于顶点均分的自适应采样;(2)计算原始网格的每个面到重新采样网格面的Hausdorff距离H1,以及重新采样网格每个面到原始网格面的Hausdorff距离H2;(3)从H1与H2中选取Hausdorff距离最大的面T离散化为独立的点后,结合面T的关联面,计算发生Hausdorff距离最大值时面T上的点P,以及对应的关联面中目标面R;计算三角网格之间的Hausdorff距离,进行点到面的类型判断,点到面的类型分为:点到点、点到线、点到面;根据点到面的类型进行网格模型优化。

    一种运动人体姿态估计的方法

    公开(公告)号:CN104715493B

    公开(公告)日:2018-01-19

    申请号:CN201510128533.2

    申请日:2015-03-23

    Abstract: 本发明公开一种运动人体姿态估计的方法,能够准确地定位人体骨架点,有效地获取三维运动人体中更具表达力的特征,构建更为有效、简单。其包括:(1)采用中值滤波的方法对深度图像数据进行预处理操作,采用基于测地距离的迪杰斯特拉算法对人体像素进行部位标定;(2)基于K‑均值聚类算法的区域特征点提取算法,确定每个类内的聚类个数为3个,提取32个姿态特征以表征不同的人体姿态;(3)在训练阶段通过PoserPro2012软件获得骨架点位置标注信息,合成300帧虚拟人的姿态特征并标注了标准骨架点,通过训练样本的姿态特征点与标准骨架点,计算姿态特征与骨架点的线性回归模型,以便得到姿态特征和标准骨架点之间的映射关系。

    一种三角网格模型的优化方法

    公开(公告)号:CN105608732A

    公开(公告)日:2016-05-25

    申请号:CN201510961925.7

    申请日:2015-12-18

    CPC classification number: G06T17/00

    Abstract: 本发明公开了一种三角网格模型的优化方法,其能够对三角网格模型进行有效地优化,获取与原始网格更相似的采样网格。包括步骤:(1)基于顶点均分的自适应采样;(2)计算原始网格的每个面到重新采样网格面的Hausdorff距离H1,以及重新采样网格每个面到原始网格面的Hausdorff距离H2;(3)从H1与H2中选取Hausdorff距离最大的面T离散化为独立的点后,结合面T的关联面,计算发生Hausdorff距离最大值时面T上的点P,以及对应的关联面中目标面R;计算三角网格之间的Hausdorff距离,进行点到面的类型判断,点到面的类型分为:点到点、点到线、点到面;根据点到面的类型进行网格模型优化。

    一种适用于三维网格序列的压缩方法

    公开(公告)号:CN105069820A

    公开(公告)日:2015-11-18

    申请号:CN201510483610.6

    申请日:2015-08-07

    Abstract: 本发明公开了一种适用于三维网格序列的压缩方法,其适用于各帧拓扑连接不同的三维网格序列的压缩,提高了异构三维网格序列的压缩效率。该方法包括步骤:(1)利用薄板样条函数TPS对几何图像序列进行非刚性配准,几何图像序列是已知的三维网格序列通过参数化和重采样生成;(2)使用图像压缩算法JPEG2000压缩步骤(1)配准后的几何图像序列的各帧之间的残差。

    一种复杂场景的深度获取方法

    公开(公告)号:CN104899882A

    公开(公告)日:2015-09-09

    申请号:CN201510282514.5

    申请日:2015-05-28

    CPC classification number: G06T7/521 G06T2207/10028

    Abstract: 本发明公开了一种复杂场景的深度获取方法,其能够提高获取深度图像的精度,进一步提高鲁棒性。这种复杂场景的深度获取方法,包括步骤:(a)利用散斑图像信噪比和深度精度与散斑密度之间的关系,设计编码多密码结构光图案,并通过光发射设备分别投射到待测物体上,生成投射的混合多密码结构光图案;(b)生成多密度混合参考图像,用与光发射设备成一定角度的相机拍摄记录下待测物体被投射编码结构光图案调制后的图像;(c)实现投射结构光图案与拍摄调制后的图像的快速匹配,进一步得到对应匹配点在投射前后的偏移量;(d)利用偏移量计算匹配点的深度值,实现待测物体的深度数据获取。

    一种基于几何图像的三角网格重网格化方法

    公开(公告)号:CN104200518A

    公开(公告)日:2014-12-10

    申请号:CN201410383735.7

    申请日:2014-08-06

    Abstract: 本发明公开了一种基于几何图像的三角网格重网格化方法,其将复杂的网格顶点连接关系嵌入在二维矩阵的相邻元素的邻接关系当中,实现了三角网格的高效、高精度表达。这种基于几何图像的三角网格重网格化方法,包括步骤:(1)通过反复插入顶点将三角网格的所有顶点存放到一个V-矩阵中,使得通过V-矩阵生成的顶点集和边集分别与三角网格的顶点集和边集的连通性相等;(2)将V-矩阵的所有元素的笛卡尔坐标都转换为像素值,得到几何图像阵列;(3)从该几何图像阵列中,通过元素的像素值获得顶点集,通过数组中水平、垂直和对角线方向的每个不同坐标的顶点对连接而获得边集。

Patent Agency Ranking