-
公开(公告)号:CN108133119B
公开(公告)日:2018-10-02
申请号:CN201810051143.3
申请日:2018-01-19
Applicant: 吉林大学
IPC: G06F17/50
Abstract: 本发明属于体感交互领域,具体地说是一种虚拟装配中旋摆动作测时方法。该方法包括以下步骤:步骤一、通过Kinect V2设备采集双手的骨骼信息,并且每0.1s存储一次;步骤二、旋摆运动中心的确定;步骤三、旋摆动作的判定;步骤四、连续和断续旋摆运动的判定和计算;步骤五、异常动作判定的剔除。本发明以Kinect V2采集的连续骨骼点为基础,推算虚拟装配中的旋摆中心,再根据平均距离推算连续动作是否为旋摆动作,通过与圆心的相对距离和双平面限制活动区域,构建比较向量判定连续和断续旋摆运动并给出相关参数数值,引入Geomagic Touch力反馈设备,通过设置力的大小可自动算出旋摆动作的操作时间。
-
公开(公告)号:CN108170281B
公开(公告)日:2018-09-28
申请号:CN201810051149.0
申请日:2018-01-19
Applicant: 吉林大学
Abstract: 本发明属于体感交互领域,具体地说是一种工作姿势分析系统测算方法。该方法包括以下步骤:步骤一、启动Kinect V2设备,并采集操作人直立时25个骨骼点的模板数据;步骤二、判断操作人员头部的分值;步骤三、判断操作人员背部的分值;步骤四、判断操作人员腿部的分值;步骤五、判断操作人员手臂的分值;步骤六、根据四个部位的分值通过表格得到最终评级。本发明是一种通过Kinect V2捕捉的人体骨骼数据,对操作人员的头部、背部、手臂和腿部进行评价,最后根据行动等级分类得到动作的级别的工作姿势分析系统测算方法,填补了现有市场上的空白。
-
公开(公告)号:CN107831897B
公开(公告)日:2018-09-07
申请号:CN201711141136.4
申请日:2017-11-17
Applicant: 吉林大学
Abstract: 本发明属于体感交互领域,具体的说是一种对快速上肢评价进行自动检测的虚拟装配操作中RULA评测方法。该评测方法包括以下步骤:步骤一计算平面法向量;步骤二:上臂评分;步骤三:前臂评分;步骤四:腕部评分;步骤五:颈部评分;步骤六:躯干评分;步骤七:腿部评分。本发明是一种从快速上肢评价出发,旨在利用体感交互技术和计算机技术自动计算出上臂、前臂、腕部、颈部、躯干和腿部的评分,能够通过Kinect V2采集的人体骨骼点构建评价体系从而自动评分的虚拟装配操作中RULA评测方法。
-
公开(公告)号:CN107783654B
公开(公告)日:2018-07-31
申请号:CN201711091356.0
申请日:2017-11-08
Applicant: 吉林大学
Abstract: 本发明属于体感交互领域,具体的说是一种对模特法中的弯曲类动作进行检测的虚拟装配操作中身体弯曲类动作检测方法。该检测方法包括以下步骤:步骤一、根据人体骨骼点,构建三个平面;步骤二、判断工人是否是弯腰;步骤三、判断工人是否蹲下或单膝触地或双膝触地;步骤四、判断工人左右手动作抓取情况;步骤五、记录工人的动作操作时间,给予操作动作做评价。本发明是一种可以不要求Kinect V2放置位置,只要对着操作人员,即可通过平面构建,角度和距离计算检测人体的运动状态,有效降低工程师的工作时间的虚拟装配操作中身体弯曲类动作检测方法。
-
公开(公告)号:CN106980385B
公开(公告)日:2018-07-10
申请号:CN201710223047.8
申请日:2017-04-07
Applicant: 吉林大学
Abstract: 本发明属于虚拟装配过程中的人机交互技术领域,具体的说是一种虚拟装配装置、系统及方法。该装置包括Kinect V2人机交互设备、Unity 3D虚拟环境构建设备、VR眼镜和力与触觉反馈设备;Kinect V2人机交互设备包括Kinect V2;Unity 3D虚拟环境构建设备包括两个摄像机和计算机;摄像机、Kinect V2人机交互设备和力与触觉反馈设备和计算机相连;VR眼镜分别与Kinect V2人机交互设备和计算机相连。本发明是一种虚拟装配装置、系统及方法,利用Kinect V2设备捕捉人体的双眼,将Unity 3D虚拟环境中的摄像头与之绑定,从而使用户通过查看虚拟环境。并按照1:1设计零部件和装配环境,通过骨骼识别模块反求虚拟环境中的现实位置,从而实现虚拟与现实的同步,完成高沉浸的虚拟装配。
-
公开(公告)号:CN108133119A
公开(公告)日:2018-06-08
申请号:CN201810051143.3
申请日:2018-01-19
Applicant: 吉林大学
IPC: G06F17/50
Abstract: 本发明属于体感交互领域,具体地说是一种虚拟装配中旋摆动作测时方法。该方法包括以下步骤:步骤一、通过Kinect V2设备采集双手的骨骼信息,并且每0.1s存储一次;步骤二、旋摆运动中心的确定;步骤三、旋摆动作的判定;步骤四、连续和断续旋摆运动的判定和计算;步骤五、异常动作判定的剔除。本发明以Kinect V2采集的连续骨骼点为基础,推算虚拟装配中的旋摆中心,再根据平均距离推算连续动作是否为旋摆动作,通过与圆心的相对距离和双平面限制活动区域,构建比较向量判定连续和断续旋摆运动并给出相关参数数值,引入Geomagic Touch力反馈设备,通过设置力的大小可自动算出旋摆动作的操作时间。
-
公开(公告)号:CN108416322B
公开(公告)日:2019-05-17
申请号:CN201810256008.2
申请日:2018-03-27
Applicant: 吉林大学
Abstract: 本发明属于体感交互领域,具体的说是一种虚拟装配中目视动作进行自动识别方法。步骤一、采集骨骼和眼睛坐标,并构建眼部中心坐标系;步骤二、设立眼部活动范围,并标记目视物体;步骤三、确认双手无操作动作;步骤四、确定各目标物体在垂直和水平面上标记物体的视野角度,再通过头部旋转状况,修正视野角度;步骤五、根据垂直平面视野夹角α和水平平面视野夹角β的数值,对目视动作进行识别。本发明利用Kinect V2设备采集人体躯体坐标,建立眼部中心坐标系,设立眼部活动范围,通过无操作认定之后,即可根据颈部移动位置、头部旋转求得垂直和水平面上标记物体的视野角度,最后根据度活动范围即可判定目视动作。
-
公开(公告)号:CN108416322A
公开(公告)日:2018-08-17
申请号:CN201810256008.2
申请日:2018-03-27
Applicant: 吉林大学
Abstract: 本发明属于体感交互领域,具体的说是一种虚拟装配中目视动作进行自动识别方法。步骤一、采集骨骼和眼睛坐标,并构建眼部中心坐标系;步骤二、设立眼部活动范围,并标记目视物体;步骤三、确认双手无操作动作;步骤四、确定各目标物体在垂直和水平面上标记物体的视野角度,再通过头部旋转状况,修正视野角度;步骤五、根据垂直平面视野夹角α和水平平面视野夹角β的数值,对目视动作进行识别。本发明利用Kinect V2设备采集人体躯体坐标,建立眼部中心坐标系,设立眼部活动范围,通过无操作认定之后,即可根据颈部移动位置、头部旋转求得垂直和水平面上标记物体的视野角度,最后根据度活动范围即可判定目视动作。
-
公开(公告)号:CN108363984A
公开(公告)日:2018-08-03
申请号:CN201810181618.0
申请日:2018-03-06
Applicant: 吉林大学
IPC: G06K9/00
Abstract: 本发明属于姿势识别领域,具体地说是一种虚拟装配中疲劳度监测方法。该方法包括以下步骤:步骤一、启动Kinect V2,并采集操作人骨骼数据;步骤二、构建虚拟装配的操作轨迹;步骤三、监测参与虚拟装配人员的操作情况,根据双手操作位置与运动轨迹线的距离绘制波动曲线;步骤四、根据波动曲线的波幅和时间判定疲劳等级,并依照疲劳等级判定是否继续检测。本方法通过Kinect V2捕捉的人体骨骼数据,根据虚拟环境中的具体零件构建出操作轨迹及直线和圆弧轨迹,通过比较操作时间和标准时间,计算脱离操作范围时间和脱离操作范围幅度判定操作是否疲劳。
-
公开(公告)号:CN108170281A
公开(公告)日:2018-06-15
申请号:CN201810051149.0
申请日:2018-01-19
Applicant: 吉林大学
Abstract: 本发明属于体感交互领域,具体地说是一种工作姿势分析系统测算方法。该方法包括以下步骤:步骤一、启动Kinect V2设备,并采集操作人直立时25个骨骼点的模板数据;步骤二、判断操作人员头部的分值;步骤三、判断操作人员背部的分值;步骤四、判断操作人员腿部的分值;步骤五、判断操作人员手臂的分值;步骤六、根据四个部位的分值通过表格得到最终评级。本发明是一种通过Kinect V2捕捉的人体骨骼数据,对操作人员的头部、背部、手臂和腿部进行评价,最后根据行动等级分类得到动作的级别的工作姿势分析系统测算方法,填补了现有市场上的空白。
-
-
-
-
-
-
-
-
-