-
-
公开(公告)号:CN108549977B
公开(公告)日:2022-07-26
申请号:CN201810271536.5
申请日:2018-03-29
Applicant: 华南理工大学
Abstract: 本发明提供基于多Agent的面向订单的柔性生产动态调度系统。该系统包括工艺Agent、监控Agent、管理Agent、资源模块和算法Agent;工艺Agent负责管理系统的产品工艺信息,为其他Agent提供数据查询服务;监控Agent负责采集设备工作状态信息并进行故障分析;管理Agent是系统的消息中转站,负责管理全体Agent;资源模块有车间Agent和设备Agent组成,设备Agent负责对设备的工作进度进行模拟,车间Agent负责管理其下的设备Agent;算法Agent封装系统的调度方法和重调度方法,为其他Agent提供计算服务。该调度系统和方法能够提高制造业对制造资源的利用率和管理水平,并能快速响应异常因素,保证制造过程的持续稳定高效。
-
公开(公告)号:CN113386128B
公开(公告)日:2022-06-10
申请号:CN202110512320.5
申请日:2021-05-11
Applicant: 华南理工大学
Abstract: 本发明提供一种面向多自由度机器人的体势交互方法,包括:采用人体骨骼关键点识别算法得到人体骨骼关键点像素坐标,根据到人体骨骼关键点的像素坐标得到各人体骨骼关键点的三维空间坐标;检测交互过程中过程是否存在肩部被手臂遮挡的异常错误;将人体空间姿态进行矫正,并对关键点空间坐标进行坐标重建;将手臂上腕部相对于肩部的坐标进行归一化,得到归一化后的坐标,同时在手掌上建立局部空间坐标系,得到手掌上局部坐标系相对于肩部为原点的坐标系的姿态角Eler(ψ,θ,γ);结合归一化后的坐标、机器人连杆长度和手掌姿态,得到机器人各关节的关节角,以驱动机器人运动。可以使得交互过程中在人不超出传感器有效视野的条件下覆盖整个机械臂的工作空间。
-
公开(公告)号:CN108363978B
公开(公告)日:2022-04-22
申请号:CN201810144385.7
申请日:2018-02-12
Applicant: 华南理工大学
IPC: G06V40/10 , G06V40/20 , G06V10/764 , G06K9/62
Abstract: 本发明公开了一种采用深度学习和UKF的基于肢体语言的情感感知方法,包括以下步骤:采用Kinect监视进入Kinect工作区的人,然后实时计算人的骨骼点;使用无迹卡尔曼滤波估计骨架点的位置,计算由于跟踪误差和设备的噪声产生的测量误差;对静态的身体动作采用卷积神经网络的方法,对动态的身体动作采用双向长短期记忆条件随机域分析;将动作处理后得到的特性的输出项直接放入softmax分类器中进行识别,识别八种情绪。基于肢体语言的情感感知具有以下优点:首先,肢体语言可以更容易地被传感器捕获;其次,基于情绪感知的身体语言噪音相对较小;第三,肢体语言较少欺骗性;第四,肢体动作的捕捉不会影响或干扰参与者的动作。
-
公开(公告)号:CN113190036A
公开(公告)日:2021-07-30
申请号:CN202110363750.5
申请日:2021-04-02
Applicant: 华南理工大学
IPC: G05D1/10
Abstract: 本发明公开了一种基于LSTM神经网络的无人机飞行轨迹预测方法。所述方法如下:选取长短记忆神经网络并通过仿真数据对其进行训练;实时获取基础飞行数据;对基础飞行数据进行预处理作为历史数据;将历史数据进行分段,对长短记忆神经网络进行实时再次训练;继续对基础飞行数据进行收集、差分标准化和分段处理,然后通过再次训练后的长短记忆神经网络进行预测,输出预测结果;将预测结果结合扩展卡尔曼滤波算法,将扩展卡尔曼滤波算法的预测结果作为最终预测结果;用户根据最终预测结果选择是否修正无人机的飞行路线,然后返回持续预测飞行轨迹。本发明在无人机的监管和监测系统中可以有效的实时监测无人机现在与未来的飞行轨迹,提高监测效率。
-
公开(公告)号:CN108334198B
公开(公告)日:2021-05-14
申请号:CN201810139483.1
申请日:2018-02-09
Applicant: 华南理工大学
IPC: G06F3/01 , G06F3/0487 , G06T19/00
Abstract: 本发明公开了基于增强现实的虚拟雕塑方法,它允许操作者通过自己的三维手势,在增强现实的场景当中完成虚拟雕塑的功能,包括以下三个步骤:S1、手势数据的获取;S2、坐标系配准以及手势建模;S3、虚实碰撞检测;S4、雕塑模型的形变。本发明提出了一种基于增强现实的虚拟雕塑方法,这个方法通过传感器来获取操作者的手势数据,然后通过增强现实头盔,在增强现实的场景当中完成虚拟雕塑的功能,整个雕塑的过程十分自然、简洁以及高效。
-
公开(公告)号:CN106406875B
公开(公告)日:2019-11-15
申请号:CN201610810266.1
申请日:2016-09-09
Applicant: 华南理工大学
Abstract: 本发明公开基于自然手势的虚拟数字雕塑方法,包括如下步骤:手势位置获取,手势位置通过Leap Motion来获取得到;虚拟雕塑建模。本发明在进行虚拟雕塑的任务工作时有两个主要模型,一个是已构建好等待雕塑的模型,一个是由Leap Motion获取关节坐标构建的虚拟手模型;当人手在Leap Motion下运动进而控制虚拟手与固定的等待雕塑模型发生轻微碰撞,碰撞处检测以三维空间三角形与三角形相交的算法判断有无交点,与交点交线位置,再根据碰撞深度的计算,利用虚拟雕塑变形算法进而将相交点位置坐标进行实时修改,从而实现雕塑变形效果。
-
公开(公告)号:CN109936622A
公开(公告)日:2019-06-25
申请号:CN201910087085.4
申请日:2019-01-29
Applicant: 华南理工大学
Abstract: 本发明公开了一种基于分布式资源共享的无人机集群控制方法,包括以下步骤:构建覆盖集群内所有无人机的分布式资源共享体系;集群内每架无人机将自身数据资源广播到其他无人机,使无人机共享邻域内其他无人机的数据资源;同时,每架无人机将自身携带的服务资源进行抽象封装,并通过服务公开和代理,实现服务资源远程调用和分布式计算;利用集群内共享的资源,建立无人机集群数据冗余备份和故障互相检修的处置机制,提高集群体系的可靠性;本发明提出的无人机集群控制方法,使得无人机集群拥有了显著的协同作业优势和较强的分布式处理能力,同时具备了较高的集群鲁棒性。
-
公开(公告)号:CN106095109B
公开(公告)日:2019-05-14
申请号:CN201610459874.2
申请日:2016-06-20
Applicant: 华南理工大学
Abstract: 本发明公开基于手势和语音进行机器人在线示教的方法,包括以下步骤:S1、基于手势的粗调过程;S2、基于语音的微调过程;S3、结合手势与语音来进行机器人示教。本发明提出了一种机器人在线示教的方法,包括了手势示教和语音示教,操作者可以通过手势的粗调和语音的微调相互结合的方式来指导机器人完成相应的动作。相比现有的技术,显得更加的自然,灵活,方便,易操控,操作者可以不必把精力放在如何操作机器人上,而可以全心全意的操控机器人完成某些任务。
-
公开(公告)号:CN109521868A
公开(公告)日:2019-03-26
申请号:CN201811084687.6
申请日:2018-09-18
Applicant: 华南理工大学
IPC: G06F3/01
Abstract: 本发明提出了一种基于增强现实与移动交互的虚拟装配方法。该方法利用Leap Motion来获取人手的手势数据,将其投射到虚拟环境中与虚拟模型进行交互;利用IKF和IPF来估计手的位置和方向;通过Kinect获取到的人身的关节数据来定位人的位置,再利用AR技术将虚拟的3D装配机器人以及装配零件的模型投射到人的身前;磁力反馈利用电磁力让操作者感受到装配过程中零件之间的相互作用力。本发明利用AR技术让操作者可以360度无死角观察零件,提高了虚拟装配过程中的沉浸感,同时电磁力反馈让操作者更清晰地感受到了零件之间的相互作用,从而可以知道零件之间的适配情况,更加接近真实装配的情况,操作更自然方便。
-
-
-
-
-
-
-
-
-