-
公开(公告)号:CN108268137B
公开(公告)日:2018-11-06
申请号:CN201810067016.2
申请日:2018-01-24
Applicant: 吉林大学
Abstract: 本发明属于体感交互领域,具体地说是一种虚拟装配中握取、移动和放手动作测算方法。该方法包括以下步骤:步骤一、利用Unity 3D构建虚拟装配环境设置抓取点和基点,并利用Leap Motion采集手掌位置点;步骤二、握取动作的识别;步骤三、放手动作的识别;步骤四、移动动作的识别。本方法以Leap Motion采集手部的坐标,和Unity 3D中标记的抓取点、基点和中心点等坐标,通过距离和面积的比值判定操作动作的标准时间,填补了现有市场的空白。
-
公开(公告)号:CN106503752B
公开(公告)日:2018-03-27
申请号:CN201611001176.4
申请日:2016-11-14
Applicant: 吉林大学
Abstract: 一种坐式手工装配线疲劳度检测系统,涉及姿势识别技术,该系统包括以下步骤:步骤1、通过Kinect设备捕捉装配线工人半身骨骼信息;步骤2、在Kinect设备开启以后,对装配线工人进行标准动作和标准时间进行测定,取十次数据的平均值为标准数据;步骤3、针对装配线工人进行监测,持续计算躯体变化角度、有效动作比率和无效动作比率,引入综合评判方法,测算出装配线工人的疲劳程度,监测数据存储在数据库中;步骤4、根据疲劳强度进行分级警告,根据强度大小决定是否继续监测或是结束监测。
-
公开(公告)号:CN107831897A
公开(公告)日:2018-03-23
申请号:CN201711141136.4
申请日:2017-11-17
Applicant: 吉林大学
Abstract: 本发明属于体感交互领域,具体的说是一种对快速上肢评价进行自动检测的虚拟装配操作中RULA评测方法。该评测方法包括以下步骤:步骤一计算平面法向量;步骤二:上臂评分;步骤三:前臂评分;步骤四:腕部评分;步骤五:颈部评分;步骤六:躯干评分;步骤七:腿部评分。本发明是一种从快速上肢评价出发,旨在利用体感交互技术和计算机技术自动计算出上臂、前臂、腕部、颈部、躯干和腿部的评分,能够通过Kinect V2采集的人体骨骼点构建评价体系从而自动评分的虚拟装配操作中RULA评测方法。
-
公开(公告)号:CN108363984A
公开(公告)日:2018-08-03
申请号:CN201810181618.0
申请日:2018-03-06
Applicant: 吉林大学
IPC: G06K9/00
Abstract: 本发明属于姿势识别领域,具体地说是一种虚拟装配中疲劳度监测方法。该方法包括以下步骤:步骤一、启动Kinect V2,并采集操作人骨骼数据;步骤二、构建虚拟装配的操作轨迹;步骤三、监测参与虚拟装配人员的操作情况,根据双手操作位置与运动轨迹线的距离绘制波动曲线;步骤四、根据波动曲线的波幅和时间判定疲劳等级,并依照疲劳等级判定是否继续检测。本方法通过Kinect V2捕捉的人体骨骼数据,根据虚拟环境中的具体零件构建出操作轨迹及直线和圆弧轨迹,通过比较操作时间和标准时间,计算脱离操作范围时间和脱离操作范围幅度判定操作是否疲劳。
-
公开(公告)号:CN108170281A
公开(公告)日:2018-06-15
申请号:CN201810051149.0
申请日:2018-01-19
Applicant: 吉林大学
Abstract: 本发明属于体感交互领域,具体地说是一种工作姿势分析系统测算方法。该方法包括以下步骤:步骤一、启动Kinect V2设备,并采集操作人直立时25个骨骼点的模板数据;步骤二、判断操作人员头部的分值;步骤三、判断操作人员背部的分值;步骤四、判断操作人员腿部的分值;步骤五、判断操作人员手臂的分值;步骤六、根据四个部位的分值通过表格得到最终评级。本发明是一种通过Kinect V2捕捉的人体骨骼数据,对操作人员的头部、背部、手臂和腿部进行评价,最后根据行动等级分类得到动作的级别的工作姿势分析系统测算方法,填补了现有市场上的空白。
-
公开(公告)号:CN108090448A
公开(公告)日:2018-05-29
申请号:CN201711380035.2
申请日:2017-12-20
Applicant: 吉林大学
Abstract: 本发明属于体感交互领域,具体地说是一种对模特法中的移动动作和终结动作进行测算的虚拟装配中模特值评价方法。该方法包括以下步骤:步骤一、通过KinectV2中的深度相机获取人体25个部位骨骼点数据;步骤二、测算双手移动范围;步骤三、测算移动动作的加速度;步骤四、终结动作的判定;步骤五、移动动作的判定。本发明从模特法出发,以Kinect V2采集的骨骼点为基础,将原有的平面区域,变成空间区域,并分好区域号,通过判定手部所在区域及手部动作是否在视野区域内认定移动动作和终结动作,旨在利用体感交互技术和计算机技术自动计算出参与虚拟装配的人员移动动作和终结动作的模特值。
-
公开(公告)号:CN108090448B
公开(公告)日:2018-09-28
申请号:CN201711380035.2
申请日:2017-12-20
Applicant: 吉林大学
Abstract: 本发明属于体感交互领域,具体地说是一种对模特法中的移动动作和终结动作进行测算的虚拟装配中模特值评价方法。该方法包括以下步骤:步骤一、通过KinectV2中的深度相机获取人体25个部位骨骼点数据;步骤二、测算双手移动范围;步骤三、测算移动动作的加速度;步骤四、终结动作的判定;步骤五、移动动作的判定。本发明从模特法出发,以Kinect V2采集的骨骼点为基础,将原有的平面区域,变成空间区域,并分好区域号,通过判定手部所在区域及手部动作是否在视野区域内认定移动动作和终结动作,旨在利用体感交互技术和计算机技术自动计算出参与虚拟装配的人员移动动作和终结动作的模特值。
-
公开(公告)号:CN108268137A
公开(公告)日:2018-07-10
申请号:CN201810067016.2
申请日:2018-01-24
Applicant: 吉林大学
Abstract: 本发明属于体感交互领域,具体地说是一种虚拟装配中握取、移动和放手动作测算方法。该方法包括以下步骤:步骤一、利用Unity 3D构建虚拟装配环境设置抓取点和基点,并利用Leap Motion采集手掌位置点;步骤二、握取动作的识别;步骤三、放手动作的识别;步骤四、移动动作的识别。本方法以Leap Motion采集手部的坐标,和Unity 3D中标记的抓取点、基点和中心点等坐标,通过距离和面积的比值判定操作动作的标准时间,填补了现有市场的空白。
-
公开(公告)号:CN107783654A
公开(公告)日:2018-03-09
申请号:CN201711091356.0
申请日:2017-11-08
Applicant: 吉林大学
Abstract: 本发明属于体感交互领域,具体的说是一种对模特法中的弯曲类动作进行检测的虚拟装配操作中身体弯曲类动作检测方法。该检测方法包括以下步骤:步骤一、根据人体骨骼点,构建三个平面;步骤二、判断工人是否是弯腰;步骤三、判断工人是否蹲下或单膝触地或双膝触地;步骤四、判断工人左右手动作抓取情况;步骤五、记录工人的动作操作时间,给予操作动作做评价。本发明是一种可以不要求Kinect V2放置位置,只要对着操作人员,即可通过平面构建,角度和距离计算检测人体的运动状态,有效降低工程师的工作时间的虚拟装配操作中身体弯曲类动作检测方法。
-
公开(公告)号:CN108721870B
公开(公告)日:2023-05-26
申请号:CN201810062199.9
申请日:2018-01-23
Applicant: 吉林大学
IPC: A63B71/06
Abstract: 本发明属于体感交互领域,具体地说是一种基于虚拟环境的运动训练评价方法。该方法包括以下步骤:步骤一、构建虚拟教学平台;步骤二、运动轨迹的计算;步骤三、运动训练评价。本发明通过Unity 3D设计虚拟的教学平台,以Kinect V2采集的骨骼点为基础,保持每秒30帧采集标准动作的各标准向量和脊柱点的坐标,并计算标准动作人员的身高;通过比较参与训练人员与标准动作人员身高确定脊柱点的偏移坐标,再根据参与训练人员的骨骼长度计算出标准动作的空间运动曲线,从而对连续运动进行识别和评分。
-
-
-
-
-
-
-
-
-