-
公开(公告)号:CN108268137B
公开(公告)日:2018-11-06
申请号:CN201810067016.2
申请日:2018-01-24
Applicant: 吉林大学
Abstract: 本发明属于体感交互领域,具体地说是一种虚拟装配中握取、移动和放手动作测算方法。该方法包括以下步骤:步骤一、利用Unity 3D构建虚拟装配环境设置抓取点和基点,并利用Leap Motion采集手掌位置点;步骤二、握取动作的识别;步骤三、放手动作的识别;步骤四、移动动作的识别。本方法以Leap Motion采集手部的坐标,和Unity 3D中标记的抓取点、基点和中心点等坐标,通过距离和面积的比值判定操作动作的标准时间,填补了现有市场的空白。
-
公开(公告)号:CN107885320B
公开(公告)日:2018-08-31
申请号:CN201710733499.0
申请日:2017-08-24
Applicant: 吉林大学
IPC: G06F3/01
Abstract: 本发明属于体感交互领域,具体的说是一种通过装配线工人的走步数目、距离和速度从而得到装配线工人活动区域的布置方法。该方法包括以下步骤:步骤一、计算出装配线工人的行走步数和空间落点位置;步骤二、根据装配线工人的骨骼点数据算出适合的活动区域,并根据最长走步点连成的线与计算出的活动区域给出区域改善意见。本发明从模特法出发,旨在利用体感交互技术和计算机技术自动计算出装配线工人下肢动作中的走步动作、距离和速度,通过走步数目确定模特值大小,并根据每个人的骨骼点数据测算出适应的活动区域,针对检测的走步数据给出装配线工人活动区域的布置方法,解决了现有装配线工人活动区域设置不合理的问题。
-
公开(公告)号:CN107885320A
公开(公告)日:2018-04-06
申请号:CN201710733499.0
申请日:2017-08-24
Applicant: 吉林大学
IPC: G06F3/01
CPC classification number: G06F3/011
Abstract: 本发明属于体感交互领域,具体的说是一种通过装配线工人的走步数目、距离和速度从而得到装配线工人活动区域的布置方法。该方法包括以下步骤:步骤一、计算出装配线工人的行走步数和空间落点位置;步骤二、根据装配线工人的骨骼点数据算出适合的活动区域,并根据最长走步点连成的线与计算出的活动区域给出区域改善意见。本发明从模特法出发,旨在利用体感交互技术和计算机技术自动计算出装配线工人下肢动作中的走步动作、距离和速度,通过走步数目确定模特值大小,并根据每个人的骨骼点数据测算出适应的活动区域,针对检测的走步数据给出装配线工人活动区域的布置方法,解决了现有装配线工人活动区域设置不合理的问题。
-
公开(公告)号:CN108416322B
公开(公告)日:2019-05-17
申请号:CN201810256008.2
申请日:2018-03-27
Applicant: 吉林大学
Abstract: 本发明属于体感交互领域,具体的说是一种虚拟装配中目视动作进行自动识别方法。步骤一、采集骨骼和眼睛坐标,并构建眼部中心坐标系;步骤二、设立眼部活动范围,并标记目视物体;步骤三、确认双手无操作动作;步骤四、确定各目标物体在垂直和水平面上标记物体的视野角度,再通过头部旋转状况,修正视野角度;步骤五、根据垂直平面视野夹角α和水平平面视野夹角β的数值,对目视动作进行识别。本发明利用Kinect V2设备采集人体躯体坐标,建立眼部中心坐标系,设立眼部活动范围,通过无操作认定之后,即可根据颈部移动位置、头部旋转求得垂直和水平面上标记物体的视野角度,最后根据度活动范围即可判定目视动作。
-
公开(公告)号:CN108416322A
公开(公告)日:2018-08-17
申请号:CN201810256008.2
申请日:2018-03-27
Applicant: 吉林大学
Abstract: 本发明属于体感交互领域,具体的说是一种虚拟装配中目视动作进行自动识别方法。步骤一、采集骨骼和眼睛坐标,并构建眼部中心坐标系;步骤二、设立眼部活动范围,并标记目视物体;步骤三、确认双手无操作动作;步骤四、确定各目标物体在垂直和水平面上标记物体的视野角度,再通过头部旋转状况,修正视野角度;步骤五、根据垂直平面视野夹角α和水平平面视野夹角β的数值,对目视动作进行识别。本发明利用Kinect V2设备采集人体躯体坐标,建立眼部中心坐标系,设立眼部活动范围,通过无操作认定之后,即可根据颈部移动位置、头部旋转求得垂直和水平面上标记物体的视野角度,最后根据度活动范围即可判定目视动作。
-
公开(公告)号:CN108363984A
公开(公告)日:2018-08-03
申请号:CN201810181618.0
申请日:2018-03-06
Applicant: 吉林大学
IPC: G06K9/00
Abstract: 本发明属于姿势识别领域,具体地说是一种虚拟装配中疲劳度监测方法。该方法包括以下步骤:步骤一、启动Kinect V2,并采集操作人骨骼数据;步骤二、构建虚拟装配的操作轨迹;步骤三、监测参与虚拟装配人员的操作情况,根据双手操作位置与运动轨迹线的距离绘制波动曲线;步骤四、根据波动曲线的波幅和时间判定疲劳等级,并依照疲劳等级判定是否继续检测。本方法通过Kinect V2捕捉的人体骨骼数据,根据虚拟环境中的具体零件构建出操作轨迹及直线和圆弧轨迹,通过比较操作时间和标准时间,计算脱离操作范围时间和脱离操作范围幅度判定操作是否疲劳。
-
公开(公告)号:CN108170281A
公开(公告)日:2018-06-15
申请号:CN201810051149.0
申请日:2018-01-19
Applicant: 吉林大学
Abstract: 本发明属于体感交互领域,具体地说是一种工作姿势分析系统测算方法。该方法包括以下步骤:步骤一、启动Kinect V2设备,并采集操作人直立时25个骨骼点的模板数据;步骤二、判断操作人员头部的分值;步骤三、判断操作人员背部的分值;步骤四、判断操作人员腿部的分值;步骤五、判断操作人员手臂的分值;步骤六、根据四个部位的分值通过表格得到最终评级。本发明是一种通过Kinect V2捕捉的人体骨骼数据,对操作人员的头部、背部、手臂和腿部进行评价,最后根据行动等级分类得到动作的级别的工作姿势分析系统测算方法,填补了现有市场上的空白。
-
公开(公告)号:CN108090448A
公开(公告)日:2018-05-29
申请号:CN201711380035.2
申请日:2017-12-20
Applicant: 吉林大学
Abstract: 本发明属于体感交互领域,具体地说是一种对模特法中的移动动作和终结动作进行测算的虚拟装配中模特值评价方法。该方法包括以下步骤:步骤一、通过KinectV2中的深度相机获取人体25个部位骨骼点数据;步骤二、测算双手移动范围;步骤三、测算移动动作的加速度;步骤四、终结动作的判定;步骤五、移动动作的判定。本发明从模特法出发,以Kinect V2采集的骨骼点为基础,将原有的平面区域,变成空间区域,并分好区域号,通过判定手部所在区域及手部动作是否在视野区域内认定移动动作和终结动作,旨在利用体感交互技术和计算机技术自动计算出参与虚拟装配的人员移动动作和终结动作的模特值。
-
公开(公告)号:CN106503752B
公开(公告)日:2018-03-27
申请号:CN201611001176.4
申请日:2016-11-14
Applicant: 吉林大学
Abstract: 一种坐式手工装配线疲劳度检测系统,涉及姿势识别技术,该系统包括以下步骤:步骤1、通过Kinect设备捕捉装配线工人半身骨骼信息;步骤2、在Kinect设备开启以后,对装配线工人进行标准动作和标准时间进行测定,取十次数据的平均值为标准数据;步骤3、针对装配线工人进行监测,持续计算躯体变化角度、有效动作比率和无效动作比率,引入综合评判方法,测算出装配线工人的疲劳程度,监测数据存储在数据库中;步骤4、根据疲劳强度进行分级警告,根据强度大小决定是否继续监测或是结束监测。
-
公开(公告)号:CN107831897A
公开(公告)日:2018-03-23
申请号:CN201711141136.4
申请日:2017-11-17
Applicant: 吉林大学
Abstract: 本发明属于体感交互领域,具体的说是一种对快速上肢评价进行自动检测的虚拟装配操作中RULA评测方法。该评测方法包括以下步骤:步骤一计算平面法向量;步骤二:上臂评分;步骤三:前臂评分;步骤四:腕部评分;步骤五:颈部评分;步骤六:躯干评分;步骤七:腿部评分。本发明是一种从快速上肢评价出发,旨在利用体感交互技术和计算机技术自动计算出上臂、前臂、腕部、颈部、躯干和腿部的评分,能够通过Kinect V2采集的人体骨骼点构建评价体系从而自动评分的虚拟装配操作中RULA评测方法。
-
-
-
-
-
-
-
-
-