一种多视角的人体行为识别方法

    公开(公告)号:CN109977787B

    公开(公告)日:2021-03-02

    申请号:CN201910156308.8

    申请日:2019-03-01

    Abstract: 公开一种多视角的人体行为识别方法,其能够有效地提取更具判别性、鲁棒的特征,从而提高了多视角的人体行为的识别精度。这种多视角的人体行为识别方法,包括以下步骤:(1)学习一组特定视角的迁移字典,使同一个动作在不同视角下的稀疏表示相同,使不同视角的动作特征迁移到稀疏空间中;(2)通过视角自适应变换模型,将稀疏表示从稀疏空间变换到新的共用空间,该模型联合学习了分布自适应模型、结构一致模型和判别信息保留模型。

    一种基于基尼指数的领域自适应语义分割方法

    公开(公告)号:CN112116593A

    公开(公告)日:2020-12-22

    申请号:CN202010781502.8

    申请日:2020-08-06

    Abstract: 本发明公开了一种基于基尼指数的领域自适应语义分割方法,利用基尼指数度量输出预测的不确定性,在输出层对目标域输出预测进行不确定性度量及约束,减小源域和目标域在类别分布上的差异,进行域间自适应;依据基尼指数对目标域预测的不确定性度量结果将目标域样本集划分为两个子集,对域内高置信度预测对应的样本利用伪标签作为弱监督信息训练域内自适应分割网络,对域内自适应分割网络两个子集的输出预测计算基尼指数图,对低置信度样本计算的基尼指数图进行约束,并利用判别器Dt判别基尼指数图属于哪个子集,基于对抗思想减小目标域域内的差异,提高语义标注精度。与现有技术相比较,本发明显著提高了目标域的语义标注准确率。

    一种用于Affordance推理的深度网络构建方法

    公开(公告)号:CN111709275A

    公开(公告)日:2020-09-25

    申请号:CN202010350248.6

    申请日:2020-04-28

    Abstract: 公开一种用于Affordance推理的深度网络构建方法,其能够描述物体间影响的不对称性,考虑不同邻居节点的差异性影响的问题,更好地刻画场景上下文中物体之间的关系。该方法包括两个部分:视觉特征提取部分和Affordance推理部分;Affordance推理部分采用门控图注意力网络(Gated Graph Attention Neural Network,GGANN),以图结构作为上下文的载体,基于对象级别的上下文信息构建双向图,对环境中物体提取视觉特征并与类别信息融合作为每个图节点的表示,图节点之间建立双向边,并引入图注意力机制更新边的权值以描述不同邻居节点间的差异性影响。

    一种基于部位聚类特征的人体行为识别方法

    公开(公告)号:CN106909890B

    公开(公告)日:2020-02-11

    申请号:CN201710057722.4

    申请日:2017-01-23

    Abstract: 本发明公开一种基于部位聚类特征的人体行为识别方法,包括:步骤1、在训练阶段,首先通过姿态估计提取训练视频每一帧的部位聚类特征点,之后计算每一帧每一个特征点的局部位置偏移和全局位置偏移;然后收集所有训练视频的特征点偏移量信息,并使用K‑means聚类算法对偏移量信息进行聚类,得到聚类中心,即形成码本,然后根据码本用一组关节特征点的直方图来表示当前的训练视频;步骤2、在测试阶段,对一个测试视频,首先通过上述训练阶段构成的码本建立直方图,之后通过朴素贝叶斯最近邻分类方法比较测试阶段直方图与训练阶段的直方图的差异进行行为识别。采用本发明的技术方案,具有很高的识别率。

    一种基于RGB-D数据的视频跟踪方法

    公开(公告)号:CN106952294B

    公开(公告)日:2019-10-08

    申请号:CN201710080013.8

    申请日:2017-02-15

    Abstract: 本发明公开一种基于RGB‑D数据的视频跟踪方法,包括:获取目标数据并建立实时更新的自适应深度信息模板;使用基于深度信息模板的融合RGB‑D信息的改良上下文模型的跟踪算法,计算当前帧的目标位置;使用基于深度信息模板的尺度更新算法,计算当前帧的目标对象尺度;启用基于深度时域变化估算的遮挡检测及处理机制,判断上一步跟踪结果的正确性,并根据判断结果进行处理。采用本发明的技术方案,提升了跟踪算法在存在遮挡,复杂背景等挑战因素下的跟踪鲁棒性和精度。

    一种室内场景语义标注方法

    公开(公告)号:CN110110578A

    公开(公告)日:2019-08-09

    申请号:CN201910129531.3

    申请日:2019-02-21

    Abstract: 公开一种室内场景语义标注方法,包括:输入彩色图片和深度图片;进入神经网络之中,彩色图片和深度图片分别通过conv1和conv2_x;进入第一注意力机制模块ARF_1之中,通过ARF_1的计算,得到特征图;进入conv3_x之中进行卷积计算;进入第二注意力机制模块ARF_2之中,通过ARF_2的计算,得到特征图;进入conv4_x之中进行空洞卷积计算;进入第三注意力机制模块ARF_3之中,通过ARF_3的计算,得到特征图;进入conv5_x之中进行空洞卷积计算;进入注意力机制混合模块ARMF进行计算;进入空间金字塔模块SPP实现多层次上下文信息融合;得到语义标注结果图。

    一种三维人体姿态估计方法

    公开(公告)号:CN110097639A

    公开(公告)日:2019-08-06

    申请号:CN201910201559.3

    申请日:2019-03-18

    Abstract: 公开一种三维人体姿态估计方法,其在不需要高配置硬件支持、和精准人体模型的条件下,实现实时且高精度的三维人体姿态估计。该方法包括步骤:(1)建立与对象匹配的三维人体模型,该模型为可见球面分布约束点云人体模型;(2)面向人体姿态跟踪的人体模型与深度点云匹配优化;(3)基于动态数据库检索的姿态跟踪错误恢复。

    基于L0最小化的人体连续帧骨骼优化方法

    公开(公告)号:CN106204635B

    公开(公告)日:2018-11-30

    申请号:CN201610476054.4

    申请日:2016-06-27

    Abstract: 基于L0最小化的人体连续帧骨骼优化方法属于图形表示方法领域,优化并恢复连续运动人体骨骼中出现的骨骼点位置提取异常,分支错误和过度不平滑的情况,以及解决同一帧中出现的骨骼点位置重合、关节处断裂的问题,以得到更加均匀、完整的骨骼模型。首先,采集多视角运动中人体的图像,使用每一帧的各视角图像重建出稠密的点云模型。针对每一帧的点云模型,使用L1中值骨骼方法提取骨骼模型;然后,对各帧的人体骨骼进行分块处理,并对各块的骨骼点进行采样,构造连续帧人体骨骼序列,建立考虑相邻帧关联性的稀疏优化模型。最后,在优化模型中增加了同一帧相邻骨骼点的正则项,让优化得到的骨骼点更加均匀。

    一种基于格拉姆矩阵正则化的卷积神经网可视化方法

    公开(公告)号:CN108470209A

    公开(公告)日:2018-08-31

    申请号:CN201810258375.6

    申请日:2018-03-27

    Abstract: 本发明公开了一种基于格拉姆矩阵正则化的卷积神经网可视化方法,包括给定一个图像表示函数和参考表示,通过优化目标函数求出这个参考表示的输入层数据,作为对应的卷积神经网络待可视化层的可视化结果。本发明可以对不同的卷积神经网络的不同层的特征进行可视化。本发明对可视化技术的正则项进行了改进,取得了对可视化的愚弄效应进行抵抗的效果。

    一种深度图像的去噪方法

    公开(公告)号:CN104732492B

    公开(公告)日:2018-03-09

    申请号:CN201510103661.1

    申请日:2015-03-09

    Abstract: 本发明公开了一种深度图像的去噪方法,其能够减少图像的边缘模糊、适用于非零均值的高斯噪声去噪、大大提升深度图像质量。这种深度图像的去噪方法,包括步骤:(1)对深度图像进行联合双边滤波,对双边滤波器的作用域进行约束,从而获得滤波图像;(2)用K‑SVD方法训练字典,用基于该字典的稀疏表示来对步骤(1)的滤波图像进行去噪,从而获得重构图像。

Patent Agency Ranking