一种基于多Kinect V2的无标记运动追踪系统

    公开(公告)号:CN113223056B

    公开(公告)日:2021-12-10

    申请号:CN202110608853.3

    申请日:2021-06-01

    Abstract: 本发明公开一种基于多Kinect V2的无标记运动追踪系统,包括若干个Kinect V2来获取深度数据以及骨骼数据;分析模块用于分析单Kinect V2采集数据的特点及传动装置装配的需求;客户端用于接收Kinect V2采集的数据,并对数据进行处理,处理的过程为:基于单Kinect V2采集数据的特点,构建客户端—服务器模型,用于从不同方向来追踪人体;输出模块用于输出Kinect V2的布局方式及追踪结果。本发明根据单Kinect V2采集数据的特点及传动装置装配的需求,使正对Kinect V2之间的互干扰最小,从不同方向来追踪人体,保证处于自遮挡状态的骨骼在其他角度有传感器对其稳定追踪。

    一种虚拟现实多视角融合模型的设计方法

    公开(公告)号:CN113221381A

    公开(公告)日:2021-08-06

    申请号:CN202110609017.7

    申请日:2021-06-01

    Abstract: 本发明公开一种虚拟现实多视角融合模型的设计方法,包括以下步骤:根据交互任务,采集视角类型,获得主视角、辅助视角以及主视角、辅助视角之间的配置模式和融合方法;根据配置模式和融合方法,构建多视角融合模型,多视角融合模型用于获得主视角图像和辅助视角图像,并将辅助视角图像融合到主视角图像中,获得多视角融合图像。本发明的多视角融合模型设计方法,使用户根据交互任务对用户空间感知与交互精度的不同需求与对辅助视角在信息丰富程度、直观性和用户介入程度三个方面的需求,先后确定主辅视角的配置模式和辅助视角的融合方法,以确定合适的多视角融合模型,为用户提供周围环境的空间信息,保证肢体运动姿态的正确性与交互的自然性。

    基于Kinect的高精度无标记全身运动追踪系统

    公开(公告)号:CN111506199A

    公开(公告)日:2020-08-07

    申请号:CN202010374817.0

    申请日:2020-05-06

    Abstract: 本发明公开了一种基于Kinect的高精度无标记全身运动追踪系统,系统包括:骨骼节点数据获取单元、坐标转换单元、数据约束处理单元、骨骼数据权重计算单元、位置信息获取单元、运动追踪信息获取单元。通过得到目标骨骼节点数据,得到目标骨骼节点数据的置信度,从而得到数据层权重,根据数据层权重和系统层权重得到权重分配数据观测模型,根据权重分配数据观测模型以及追踪数据二阶预测模型,通过卡尔曼滤波进行数据融合得到骨骼节点数据的位置信息,根据位置信息,得到骨骼节点数据对应的运动追踪信息。本技术方案通过计算目标骨骼节点数据的置信度以及骨骼数据权重,并获取位置信息,进而得到运动追踪信息,提高了人体运动姿态捕捉的精度。

    一种虚拟现实辅助装配的公差优化方法和装置

    公开(公告)号:CN114330015B

    公开(公告)日:2022-08-26

    申请号:CN202210010613.8

    申请日:2022-01-05

    Abstract: 本发明公开一种虚拟现实辅助装配的公差优化方法和装置,包括以下步骤:根据虚拟装配中零件公差信息与装配约束信息,生成尺寸链;根据所述尺寸链,得到公差分析报告,所述公差分析报告包含:装配尺寸链计算结果、组成环的灵敏度及其对封闭环的影响率;根据所述公差分析报告,以提高装配精度、降低装配成本、降低质量损失为优化目标,得到零件公差优化结果。采用本发明的技术方案,在控制制造成本情况下提高机械产品装配精度。

    虚拟环境下提高紧凑空间手部运动精度的视觉反馈方法

    公开(公告)号:CN114332936A

    公开(公告)日:2022-04-12

    申请号:CN202111639011.0

    申请日:2021-12-29

    Abstract: 本发明公开了虚拟环境下提高紧凑空间手部运动精度的视觉反馈方法,包括:采集手部感知反馈信息和空间信息,根据所述手部感知反馈信息和所述空间信息,获得触觉反馈集和视觉反馈集,基于所述触觉反馈集和所述视觉反馈集进行评价,得到碰撞信息特征;基于所述碰撞信息特征进行反馈处理,得到在紧凑空间环境下的手部运动的反馈结果并进行优化。本发明保证了手部运动过程中接近度与穿透深度计算的正确性,以及计算当前手部运动的主要作用方向,以保证投影方向的正确性,避免触发非必要作用方向上的碰撞反馈效果,设计并实现了基于物理交互的自适应视觉反馈投射技术。

    一种虚拟现实多视角融合模型的设计方法

    公开(公告)号:CN113221381B

    公开(公告)日:2022-03-08

    申请号:CN202110609017.7

    申请日:2021-06-01

    Abstract: 本发明公开一种虚拟现实多视角融合模型的设计方法,包括以下步骤:根据交互任务,采集视角类型,获得主视角、辅助视角以及主视角、辅助视角之间的配置模式和融合方法;根据配置模式和融合方法,构建多视角融合模型,多视角融合模型用于获得主视角图像和辅助视角图像,并将辅助视角图像融合到主视角图像中,获得多视角融合图像。本发明的多视角融合模型设计方法,使用户根据交互任务对用户空间感知与交互精度的不同需求与对辅助视角在信息丰富程度、直观性和用户介入程度三个方面的需求,先后确定主辅视角的配置模式和辅助视角的融合方法,以确定合适的多视角融合模型,为用户提供周围环境的空间信息,保证肢体运动姿态的正确性与交互的自然性。

    一种基于多Kinect的人体骨骼数据融合评价方法

    公开(公告)号:CN113240044B

    公开(公告)日:2021-12-24

    申请号:CN202110610406.1

    申请日:2021-06-01

    Abstract: 本发明涉及一种基于多Kinect的人体骨骼数据融合评价方法,包括:基于无标记运动追踪系统进行数据采集并进行卡尔曼滤波处理,将数据进行预处理,通过无标记运动追踪系统获得的位姿矩阵将若干台Kinect传感器数据转换到Unity3D引擎世界坐标系内,进行多约束数据质量评价;若在预处理过程中关节点位置信息缺失,则采用粒子滤波算法对缺失的关节点进行预测;选择人体移动类和肢体调整类各若干种动作,以OptiTrack采集的数据做为真值对照,将基于多Kinect的人体骨骼数据融合评价方法与加权方法进行性能表现对比分析。本发明方法,为实时骨骼融合提供了一套全面的质量测量;构建了日常动作库来对算法的精度进行分析。

    基于改进ICP的多Kinect系统坐标标定与转换方法

    公开(公告)号:CN113345010A

    公开(公告)日:2021-09-03

    申请号:CN202110609194.5

    申请日:2021-06-01

    Abstract: 本发明公开一种基于改进ICP的多Kinect系统坐标标定与转换方法包括:获取第一坐标系统:第一坐标系统为OptiTrack运动追踪系统捕捉到的真实空间中人体的坐标系;获取第二坐标系统:第二坐标系统为以各自Kinect传感器坐标系原点为基准的骨骼节点的坐标系系统;使用改进的ICP方法将第一坐标系统、第二坐标系统与Unity3D的世界坐标系进行配准;然后进行校准,对校准结果进行可视化并分析校准误差分析。本发明通过将Kinect、OptiTrack运动追踪系统统一到Unity3D引擎世界坐标系内,标定过程简单、易用性好,大大减小了标定误差。

    一种基于多Kinect的人体骨骼数据融合评价方法

    公开(公告)号:CN113240044A

    公开(公告)日:2021-08-10

    申请号:CN202110610406.1

    申请日:2021-06-01

    Abstract: 本发明涉及一种基于多Kinect的人体骨骼数据融合评价方法,包括:基于无标记运动追踪系统进行数据采集并进行卡尔曼滤波处理,将数据进行预处理,通过无标记运动追踪系统获得的位姿矩阵将若干台Kinect传感器数据转换到Unity3D引擎世界坐标系内,进行多约束数据质量评价;若在预处理过程中关节点位置信息缺失,则采用粒子滤波算法对缺失的关节点进行预测;选择人体移动类和肢体调整类各若干种动作,以OptiTrack采集的数据做为真值对照,将基于多Kinect的人体骨骼数据融合评价方法与加权方法进行性能表现对比分析。本发明方法,为实时骨骼融合提供了一套全面的质量测量;构建了日常动作库来对算法的精度进行分析。

Patent Agency Ranking