一种结合特征分离模型和视角转换模型的步态识别方法

    公开(公告)号:CN111639580B

    公开(公告)日:2023-07-18

    申请号:CN202010452373.8

    申请日:2020-05-25

    Inventor: 华璟 罗利鹏

    Abstract: 本发明公开了一种结合特征分离模型和视角转换模型的步态识别方法,该方法包括以下步骤:数据采集;训练基于特征分离模型和生成式对抗网络的视角转换器;训练视角判别器;训练步态识别器;测试与实际应用;本发明通过特征分离模型分离开外观特征和步态特征,使得在训练和实际应用中可以直接使用摄像机拍摄到的图像作为算法输入,而无需对图像进行语义分割等背景减法,有效降低了背景减法产生的误差;本发明通过视角转换降低了跨摄像头视角不同导致的识别误差;在测试时,本发明无需以步态模板或者连续视频序列作为输入,仅需要部分视频帧即可,且对是否连续没有要求。本发明提高了步态识别算法的鲁棒性。

    基于深度卷积神经网络的多摄像机系统目标匹配方法

    公开(公告)号:CN104616032B

    公开(公告)日:2018-02-09

    申请号:CN201510047118.4

    申请日:2015-01-30

    Inventor: 王慧燕 华璟

    Abstract: 一种基于深度卷积神经网络的多摄像机间的目标匹配方法。本发明基于局部保护投影方法初始化多个卷积核,基于最大值池化方法对图像进行下采样,通过逐层特征变换,提取更加鲁棒、更加具有代表性的直方图特征;再利用多类支持向量机SVM分类器进行分类识别。当目标从一个摄像机视野域进入另外一个摄像机视野域时,对其提取特征并标注对应的目标标签,实现在多摄像机协作监控领域对目标进行准确的识别,以用于目标交接及跟踪等。

    基于集成学习级联分类器的车道线检测方法

    公开(公告)号:CN106228125A

    公开(公告)日:2016-12-14

    申请号:CN201610563188.X

    申请日:2016-07-15

    CPC classification number: G06K9/00798 G06K9/6257

    Abstract: 本发明公开了一种基于集成学习级联分类器的车道线检测方法,可以在单个CPU或DSP上实时的获取图中车道线准确的位置和方向信息,进而得到车道线方程,同时对交通场景的亮度变化具有一定鲁棒性。该检测方法过程:首先架设图像传感器,获取需提取车道线的彩色图像;然后基于前帧的检测结果提取感兴趣区域;再计算积分图和单尺度块LBP特征;接着采用集成学习遍历感兴趣区域,得到车道线细小区域;得到车道线细小区域后,最后使用基于最优化的办法得到车道线方程。

    基于超分辨率技术的细微物体分割方法及装置

    公开(公告)号:CN114862675B

    公开(公告)日:2024-12-13

    申请号:CN202210410719.7

    申请日:2022-04-19

    Inventor: 华璟 朱水丽 孙杰

    Abstract: 本发明公开了一种基于超分辨率技术的细微物体分割方法及装置,可用于三维微小血管的分割。该方法包括以下步骤:1)构建超分辨率网络,提出一个结构保持的超分辨率网络,在保持血管结构信息的基础上,对微小血管进行超分辨率操作,获得更多细节信息;2)构建三维血管分割网络,该分割网络采用了U型的网络结构,在卷积层一层一层提取特征的同时将首尾对称的两层联系起来,实现特征的充分提取;3)利用超分辨率对数据进行处理,使用超分后的数据对分割网络进行训练,从而达到更好的分割效果。本发明通过超分辨率技术增强血管特性信息,从而对原有网络产生明显提升,实现高效准确的分割效果。

    通过隐式神经光场表示的实时单目SLAM方法及装置

    公开(公告)号:CN117274373A

    公开(公告)日:2023-12-22

    申请号:CN202311307483.5

    申请日:2023-10-08

    Inventor: 华璟 何雷 孙杰

    Abstract: 本发明涉及一种通过隐式神经光场表示的实时单目SLAM方法及装置。本发明采用相机定位和地图构建分步处理的方式实现单目RGB相机下通过隐式神经光场存储地图的实时SLAM;预训练一个估计相机位姿和深度的快推理模型,解决单目RGB相机在没有激光雷达和陀螺仪的条件下,无法为SLAM系统提供定位功能和场景深度信息的问题;通过基于光流估计的稠密束调整有效地优化相机位姿和地图点的位置,提升了位姿估计的准确性和深度估计的稳定性,增强了系统的鲁棒性;利用隐式神经光场存储和渲染场景地图,以更小的存储代价,解决了传统方法中场景表示不连续、分辨率受限、视角切换不流畅、光照和纹理建模困难的问题。

    基于轮廓卷积神经网络的视频动作识别方法

    公开(公告)号:CN111639571B

    公开(公告)日:2023-05-23

    申请号:CN202010433443.5

    申请日:2020-05-20

    Inventor: 华璟 高明琦

    Abstract: 本发明公开了一种基于轮廓卷神经网络的视频动作识别方法,首先对于带有标签的视频进行逐帧的剪裁处理,对于剪裁后的样本进行必要的增广操作;其次通过轮廓卷积操作ContourConv得到良好的分割结果并有效地提取出图片中有序的动作点云集合与几何特征;接着使用RGB与光流的双流网络对图片的表层特征进行提取;最终将上述两个分支进行模型融合,传入检测设备中,将传入到检测设备的特征图进行动作识别预测,得到最终的预测结果。本发明通过轮廓卷积将人体姿态的几何信息提取出来并作为行为识别网络的一个新的分支,从而对原有网络产生明显的提升作用,实现高效准确地视频动作识别。

    一种高性能行人检索与重识别方法及装置

    公开(公告)号:CN115063831A

    公开(公告)日:2022-09-16

    申请号:CN202210409679.4

    申请日:2022-04-19

    Inventor: 华璟 吴绍鑫 孙杰

    Abstract: 本发明公开了一种高性能行人检索与重识别方法及装置,该方法包括:分别获取单视角和多视角现实监控场景下的行人数据,对行人数据进行数据标注,其中单视角行人数据与COCO数据集中的行人部分,共同构建行人检测数据集,多视角行人数据构建行人重识别数据集;利用行人检测数据集基于Ghost轻量化模型改进的YOLOv5行人检测算法训练网络模型;利用行人重识别数据集训练得到行人重识别模型;搭建行人搜索系统。本发明通过深度模型压缩和算法算力的协同优化,从算法到硬件的自上而下的方法来优化深度学习的效率,实现低代价高性能的行人重识别系统。

    一种结合特征分离模型和视角转换模型的步态识别方法

    公开(公告)号:CN111639580A

    公开(公告)日:2020-09-08

    申请号:CN202010452373.8

    申请日:2020-05-25

    Inventor: 华璟 罗利鹏

    Abstract: 本发明公开了一种结合特征分离模型和视角转换模型的步态识别方法,该方法包括以下步骤:数据采集;训练基于特征分离模型和生成式对抗网络的视角转换器;训练视角判别器;训练步态识别器;测试与实际应用;本发明通过特征分离模型分离开外观特征和步态特征,使得在训练和实际应用中可以直接使用摄像机拍摄到的图像作为算法输入,而无需对图像进行语义分割等背景减法,有效降低了背景减法产生的误差;本发明通过视角转换降低了跨摄像头视角不同导致的识别误差;在测试时,本发明无需以步态模板或者连续视频序列作为输入,仅需要部分视频帧即可,且对是否连续没有要求。本发明提高了步态识别算法的鲁棒性。

    一种融合深度估计的神经隐式表面重建方法及装置

    公开(公告)号:CN117274493A

    公开(公告)日:2023-12-22

    申请号:CN202311241095.1

    申请日:2023-09-25

    Inventor: 华璟 刘梦婷 孙杰

    Abstract: 本发明涉及一种融合深度估计的神经隐式表面重建方法及装置。本方法通过3D卷积网络预测深度信息,避免使用昂贵的测量设备,降低了工程成本。并且将基于学习的深度先验融合进神经辐射场,从而可以更好地指导神经辐射场的优化过程,解决了传统神经辐射场方法仅用颜色信息构建损失函数,容易导致重建物体的几何结构模糊的问题。另外,本方法通过带符号的距离函数SDF隐式地表示重建物体,因此可以将表面提取为它的零级集,有效提高了复杂物体表面重建的效果。

Patent Agency Ranking