基于高分辨率上下文网络的拥挤人群姿态估计方法

    公开(公告)号:CN115171052B

    公开(公告)日:2022-11-22

    申请号:CN202211087138.0

    申请日:2022-09-07

    Abstract: 本发明公开了一种基于高分辨率上下文网络的拥挤人群姿态估计方法,提供了全局前馈网络GFFN和动态前馈网络DFFN,能够在始终保持图像的二维结构信息的情况下,捕获骨干网络中间特征图包含的上下文信息,并增强特征表示对被遮挡人体的动态适应性;提供一种新型人体姿态估计网络,即高分辨率上下文网络HRNeXt,该网络能够提取到具有丰富的上下文信息的高分辨率特征表示,高效地对图像中不同人体之间及不同身体部位之间的位置关系进行抽象理解,有效解决重遮挡环境下姿态识别精度下降的问题。该方法能够准确、高效地对被遮挡人体的姿态进行预测,对重遮挡环境具有较强的鲁棒性。

    基于动态轻量高分辨率网络的人体姿态估计方法

    公开(公告)号:CN114333074B

    公开(公告)日:2022-05-24

    申请号:CN202210243988.9

    申请日:2022-03-14

    Abstract: 本发明提供了一种基于动态轻量高分辨率网络的人体姿态估计方法,该方法提出了一种动态轻量高分辨率网络Dite‑HRNet,能够高效地提取多尺度下的人体关键点特征以及捕捉不同人体关键点之间的空间上下文信息;通过动态金字塔卷积和自适应上下文建模方法,分别解决了现有高分辨率网络中网络模块过于静态以及对空间上下文捕捉不足的问题,并使用这二者为高分辨率网络特别设计了两种动态上下文模块,分别为动态多尺度上下文模块和动态全局上下文模块,最后充分利用高分辨率网络的并行多分支结构特点,将具有不同超参数配置的动态上下文模块应用到一个轻量级高分辨率网络的不同的分支上,构建出一个高效的轻量级高分辨率网络。

    基于高分辨率上下文网络的拥挤人群姿态估计方法

    公开(公告)号:CN115171052A

    公开(公告)日:2022-10-11

    申请号:CN202211087138.0

    申请日:2022-09-07

    Abstract: 本发明公开了一种基于高分辨率上下文网络的拥挤人群姿态估计方法,提供了全局前馈网络GFFN和动态前馈网络DFFN,能够在始终保持图像的二维结构信息的情况下,捕获骨干网络中间特征图包含的上下文信息,并增强特征表示对被遮挡人体的动态适应性;提供一种新型人体姿态估计网络,即高分辨率上下文网络HRNeXt,该网络能够提取到具有丰富的上下文信息的高分辨率特征表示,高效地对图像中不同人体之间及不同身体部位之间的位置关系进行抽象理解,有效解决重遮挡环境下姿态识别精度下降的问题。该方法能够准确、高效地对被遮挡人体的姿态进行预测,对重遮挡环境具有较强的鲁棒性。

    基于动态轻量高分辨率网络的人体姿态估计方法

    公开(公告)号:CN114333074A

    公开(公告)日:2022-04-12

    申请号:CN202210243988.9

    申请日:2022-03-14

    Abstract: 本发明提供了一种基于动态轻量高分辨率网络的人体姿态估计方法,该方法提出了一种动态轻量高分辨率网络Dite‑HRNet,能够高效地提取多尺度下的人体关键点特征以及捕捉不同人体关键点之间的空间上下文信息;通过动态金字塔卷积和自适应上下文建模方法,分别解决了现有高分辨率网络中网络模块过于静态以及对空间上下文捕捉不足的问题,并使用这二者为高分辨率网络特别设计了两种动态上下文模块,分别为动态多尺度上下文模块和动态全局上下文模块,最后充分利用高分辨率网络的并行多分支结构特点,将具有不同超参数配置的动态上下文模块应用到一个轻量级高分辨率网络的不同的分支上,构建出一个高效的轻量级高分辨率网络。

    基于孪生语义自编码器和分支融合的行人重识别方法

    公开(公告)号:CN112949608B

    公开(公告)日:2022-08-02

    申请号:CN202110410769.0

    申请日:2021-04-15

    Abstract: 本发明提供了一种基于孪生语义自编码器和分支融合的行人重识别方法,该方法步骤为:构建一个行人重识别数据集和其孪生数据集,训练一个卷积自编码器;把卷积自编码器的编码器网络作为特征提取骨干网络来提取孪生特征向量,训练一个孪生语义自编码器,并借助其编码部分网络权重构建一个语义自编码分支网络;将卷积自编码器的编码器网络作为行人重识别骨干网络,对其进行分支构建,训练得到一个完整的行人重识别网络模型;将待识别行人图像和待查询行人图像集分别输入到训练好的模型中,提取出经过多层次特征融合后的行人重识别特征,经相似度排序实现行人重识别。本发明能显著提高行人重识别网络模型的鲁棒性和行人重识别的精度。

    基于孪生语义自编码器和分支融合的行人重识别方法

    公开(公告)号:CN112949608A

    公开(公告)日:2021-06-11

    申请号:CN202110410769.0

    申请日:2021-04-15

    Abstract: 本发明提供了一种基于孪生语义自编码器和分支融合的行人重识别方法,该方法步骤为:构建一个行人重识别数据集和其孪生数据集,训练一个卷积自编码器;把卷积自编码器的编码器网络作为特征提取骨干网络来提取孪生特征向量,训练一个孪生语义自编码器,并借助其编码部分网络权重构建一个语义自编码分支网络;将卷积自编码器的编码器网络作为行人重识别骨干网络,对其进行分支构建,训练得到一个完整的行人重识别网络模型;将待识别行人图像和待查询行人图像集分别输入到训练好的模型中,提取出经过多层次特征融合后的行人重识别特征,经相似度排序实现行人重识别。本发明能显著提高行人重识别网络模型的鲁棒性和行人重识别的精度。

Patent Agency Ranking