基于PointNet网络点云分割及虚拟环境生成方法和装置

    公开(公告)号:CN113256640A

    公开(公告)日:2021-08-13

    申请号:CN202110603532.4

    申请日:2021-05-31

    Abstract: 本发明公开一种基于PointNet网络点云分割及虚拟环境生成方法和装置,包括:获取虚拟环境中待处理数据集中的点云;采用改进的PointNet网络对所述点云进行点云语义分割;根据语义分割后的点云,在虚拟环境中将物体替换为具有物理属性的虚拟模型,生成包含所有物理属性的虚拟对象。采用本发明的技术方案,以解决由于点云数量庞大,使得实时数据传输及环境重建变得比较困难,且在点云环境中,操作者对环境中的物体辨别困难的问题。

    基于改进ICP的多Kinect系统坐标标定与转换方法

    公开(公告)号:CN113345010B

    公开(公告)日:2022-02-11

    申请号:CN202110609194.5

    申请日:2021-06-01

    Abstract: 本发明公开一种基于改进ICP的多Kinect系统坐标标定与转换方法包括:获取第一坐标系统:第一坐标系统为OptiTrack运动追踪系统捕捉到的真实空间中人体的坐标系;获取第二坐标系统:第二坐标系统为以各自Kinect传感器坐标系原点为基准的骨骼节点的坐标系系统;使用改进的ICP方法将第一坐标系统、第二坐标系统与Unity3D的世界坐标系进行配准;然后进行校准,对校准结果进行可视化并分析校准误差分析。本发明通过将Kinect、OptiTrack运动追踪系统统一到Unity3D引擎世界坐标系内,标定过程简单、易用性好,大大减小了标定误差。

    一种虚拟现实中RULA实时评价方法

    公开(公告)号:CN113331825A

    公开(公告)日:2021-09-03

    申请号:CN202110600585.0

    申请日:2021-05-31

    Abstract: 本发明提供了一种虚拟现实中RULA实时评价方法,包括,采集动作帧,基于所述动作帧,建立空间坐标系,基于所述空间坐标系,提取关节点坐标,基于所述关节点坐标,获取各肢体向量;基于所述关节点坐标及空间坐标系中坐标轴,获取主矢状面和修正矢状面;基于各肢体向量、主矢状面及修正矢状面,获取各肢体主分值和各肢体修正分值;基于所述各肢体主分值及各肢体修正分值,得到各肢体总分值,基于所述各肢体总分值,通过RULA工作表获取人体姿势的RULA分值。本发明所提供的RULA评价方法做到了人机工效的快速、实时、准确评价。

    一种基于多Kinect V2的无标记运动追踪系统

    公开(公告)号:CN113223056A

    公开(公告)日:2021-08-06

    申请号:CN202110608853.3

    申请日:2021-06-01

    Abstract: 本发明公开一种基于多Kinect V2的无标记运动追踪系统,包括若干个Kinect V2来获取深度数据以及骨骼数据;分析模块用于分析单Kinect V2采集数据的特点及传动装置装配的需求;客户端用于接收Kinect V2采集的数据,并对数据进行处理,处理的过程为:基于单Kinect V2采集数据的特点,构建客户端—服务器模型,用于从不同方向来追踪人体;输出模块用于输出Kinect V2的布局方式及追踪结果。本发明根据单Kinect V2采集数据的特点及传动装置装配的需求,使正对Kinect V2之间的互干扰最小,从不同方向来追踪人体,保证处于自遮挡状态的骨骼在其他角度有传感器对其稳定追踪。

    一种虚拟现实多视角融合模型的设计方法

    公开(公告)号:CN113221381B

    公开(公告)日:2022-03-08

    申请号:CN202110609017.7

    申请日:2021-06-01

    Abstract: 本发明公开一种虚拟现实多视角融合模型的设计方法,包括以下步骤:根据交互任务,采集视角类型,获得主视角、辅助视角以及主视角、辅助视角之间的配置模式和融合方法;根据配置模式和融合方法,构建多视角融合模型,多视角融合模型用于获得主视角图像和辅助视角图像,并将辅助视角图像融合到主视角图像中,获得多视角融合图像。本发明的多视角融合模型设计方法,使用户根据交互任务对用户空间感知与交互精度的不同需求与对辅助视角在信息丰富程度、直观性和用户介入程度三个方面的需求,先后确定主辅视角的配置模式和辅助视角的融合方法,以确定合适的多视角融合模型,为用户提供周围环境的空间信息,保证肢体运动姿态的正确性与交互的自然性。

    一种基于多Kinect的人体骨骼数据融合评价方法

    公开(公告)号:CN113240044B

    公开(公告)日:2021-12-24

    申请号:CN202110610406.1

    申请日:2021-06-01

    Abstract: 本发明涉及一种基于多Kinect的人体骨骼数据融合评价方法,包括:基于无标记运动追踪系统进行数据采集并进行卡尔曼滤波处理,将数据进行预处理,通过无标记运动追踪系统获得的位姿矩阵将若干台Kinect传感器数据转换到Unity3D引擎世界坐标系内,进行多约束数据质量评价;若在预处理过程中关节点位置信息缺失,则采用粒子滤波算法对缺失的关节点进行预测;选择人体移动类和肢体调整类各若干种动作,以OptiTrack采集的数据做为真值对照,将基于多Kinect的人体骨骼数据融合评价方法与加权方法进行性能表现对比分析。本发明方法,为实时骨骼融合提供了一套全面的质量测量;构建了日常动作库来对算法的精度进行分析。

    基于改进ICP的多Kinect系统坐标标定与转换方法

    公开(公告)号:CN113345010A

    公开(公告)日:2021-09-03

    申请号:CN202110609194.5

    申请日:2021-06-01

    Abstract: 本发明公开一种基于改进ICP的多Kinect系统坐标标定与转换方法包括:获取第一坐标系统:第一坐标系统为OptiTrack运动追踪系统捕捉到的真实空间中人体的坐标系;获取第二坐标系统:第二坐标系统为以各自Kinect传感器坐标系原点为基准的骨骼节点的坐标系系统;使用改进的ICP方法将第一坐标系统、第二坐标系统与Unity3D的世界坐标系进行配准;然后进行校准,对校准结果进行可视化并分析校准误差分析。本发明通过将Kinect、OptiTrack运动追踪系统统一到Unity3D引擎世界坐标系内,标定过程简单、易用性好,大大减小了标定误差。

    一种基于多Kinect的人体骨骼数据融合评价方法

    公开(公告)号:CN113240044A

    公开(公告)日:2021-08-10

    申请号:CN202110610406.1

    申请日:2021-06-01

    Abstract: 本发明涉及一种基于多Kinect的人体骨骼数据融合评价方法,包括:基于无标记运动追踪系统进行数据采集并进行卡尔曼滤波处理,将数据进行预处理,通过无标记运动追踪系统获得的位姿矩阵将若干台Kinect传感器数据转换到Unity3D引擎世界坐标系内,进行多约束数据质量评价;若在预处理过程中关节点位置信息缺失,则采用粒子滤波算法对缺失的关节点进行预测;选择人体移动类和肢体调整类各若干种动作,以OptiTrack采集的数据做为真值对照,将基于多Kinect的人体骨骼数据融合评价方法与加权方法进行性能表现对比分析。本发明方法,为实时骨骼融合提供了一套全面的质量测量;构建了日常动作库来对算法的精度进行分析。

    基于PointNet网络点云分割及虚拟环境生成方法和装置

    公开(公告)号:CN113256640B

    公开(公告)日:2022-05-24

    申请号:CN202110603532.4

    申请日:2021-05-31

    Abstract: 本发明公开一种基于PointNet网络点云分割及虚拟环境生成方法和装置,包括:获取虚拟环境中待处理数据集中的点云;采用改进的PointNet网络对所述点云进行点云语义分割;根据语义分割后的点云,在虚拟环境中将物体替换为具有物理属性的虚拟模型,生成包含所有物理属性的虚拟对象。采用本发明的技术方案,以解决由于点云数量庞大,使得实时数据传输及环境重建变得比较困难,且在点云环境中,操作者对环境中的物体辨别困难的问题。

    一种虚拟现实中RULA实时评价方法

    公开(公告)号:CN113331825B

    公开(公告)日:2022-01-18

    申请号:CN202110600585.0

    申请日:2021-05-31

    Abstract: 本发明提供了一种虚拟现实中RULA实时评价方法,包括,采集动作帧,基于所述动作帧,建立空间坐标系,基于所述空间坐标系,提取关节点坐标,基于所述关节点坐标,获取各肢体向量;基于所述关节点坐标及空间坐标系中坐标轴,获取主矢状面和修正矢状面;基于各肢体向量、主矢状面及修正矢状面,获取各肢体主分值和各肢体修正分值;基于所述各肢体主分值及各肢体修正分值,得到各肢体总分值,基于所述各肢体总分值,通过RULA工作表获取人体姿势的RULA分值。本发明所提供的RULA评价方法做到了人机工效的快速、实时、准确评价。

Patent Agency Ranking