-
公开(公告)号:CN109993068A
公开(公告)日:2019-07-09
申请号:CN201910180227.1
申请日:2019-03-11
Applicant: 华南理工大学
Abstract: 本发明提供一种基于心率和面部特征的非接触式的人类情感识别方法,它使得系统可以远程识别人类情感。包括步骤:(1)使用图像采集设备(包括RGB色彩和红外线)实时采集图像信息;(2)使用信号分离技术得到特征信号;(3)使用神经网络分析并得出人类情感。本发明结合人类的实时影像,系统可以依赖难以伪装的人类的生物信号识别出人类情感。
-
公开(公告)号:CN109890038A
公开(公告)日:2019-06-14
申请号:CN201910086381.2
申请日:2019-01-29
Applicant: 华南理工大学
Abstract: 本发明公开了一种基于SoftAP的无人机群集网络自组织方法,包含以下步骤:使用SoftAP技术构建无人机群集网络的基本单元,即无线网络单元;基本单元包含第一网络节点、第二网络节点;第一网络节点和第二网络节点使用不同扫描方式获取邻居网络的无线网络单元信息;以邻居网络的无线网络单元信息为基础,网络节点以网络形成和网络组网进行网络的自组织;第一网络节点以和第二网络节点以不同数据触发网络组网请求;接收到网络组网请求后,判断网络群集规模,并根据静态变量和动态变量,对网络组网请求进行处理,实现了以网络性能和群集规模为优化目标无人机群集自组织网络,且保证结构简单化。
-
公开(公告)号:CN106125925B
公开(公告)日:2019-05-14
申请号:CN201610459956.7
申请日:2016-06-20
Applicant: 华南理工大学
Abstract: 本发明提供了一种基于手势及语音控制的机器人智能抓捕算法,包括步骤(1)手势快速定位;(2)基于自然语言理解的辅助定位定姿;(3)分割定位目标物;(4)路劲规划。本发明使用了基于智能感知的自然人机交互技术,当人手指向目标物并下达包含物体信息的语音抓捕命令时,机器人能在该语音信息的辅助下通过手指指向来快速定位目标物,并且自动规划出一条路径来抓捕物体,接着,在机器人靠近目标物时,还可通过语音命令来精细调整目标物的定位。这样,借助语音与手势的结合使得机器人的控制更加灵活方便并且能工作在更为复杂的环境中。
-
公开(公告)号:CN109670406A
公开(公告)日:2019-04-23
申请号:CN201811411596.9
申请日:2018-11-25
Applicant: 华南理工大学
Abstract: 本发明提供一种结合心率与面部表情面向游戏用户的非接触式情感识别方法,包括步骤:(1)信息采集:采集玩家的面部信息;(2)心率训练:计算玩家的心率频率范围,识别心率包含的情感,最后实现心率模式的分类;(3)面部表情训练:对采集到的人脸视频帧实时分割出ROI,接着进行Gabor特征提取和LDA降维,再融合成的强分类器实现面部表情的分类;(4)情感判定:对玩家的情感初步判断;再利用模糊积分融合心率和面部表情进行情感判定。本发明只需Kinect2的摄像头可完成对玩家面部信息的非侵入式采集,另外红外摄像头保证输入信息不受光照条件影响,给游戏开发者提供有用的经验,从而设计出最大化用户体验的游戏。
-
公开(公告)号:CN109500811A
公开(公告)日:2019-03-22
申请号:CN201811342584.5
申请日:2018-11-13
Applicant: 华南理工大学
IPC: B25J9/16
Abstract: 本发明提出了一种面向人机共融的机器人主动避让人类的方法。该方法包括以下步骤S1、使用Kinect检测到人并实时计算对方的人体骨骼的位置,使用改进的粒子滤波器算法来估计对方骨骼关键点的位置,再建立人体模型;S2、使用人的骨骼关键点和机器人的设计手册参数来构建各部分圆柱体边界,建立机器人模型;S3、检测圆柱体之间是否即将碰撞,再采用基于主动防撞系统来分析人的运动,以便机器人避开;S4、使用动态路线图算法来进行实时规划新路径,使机器人主动避让。通过检测圆柱体碰撞来检测人和机器人之间碰撞,以便机器人可以采取适当的措施来避开人。
-
公开(公告)号:CN109395375A
公开(公告)日:2019-03-01
申请号:CN201811086686.5
申请日:2018-09-18
Applicant: 华南理工大学
IPC: A63F13/212 , A63F13/428
Abstract: 本发明提出了一种基于增强现实与移动交互的三维游戏接口设计方法。该方法分为四个步骤:数据收集,数据计算,数据传输,手部重建。数据收集部分由Leap Motion完成对手部位置和方向数据的采集;在数据计算部分,与Leap Motion连接的PC对采集来的手部数据进行坐标系转换并使用区间卡尔曼滤波器和区间粒子滤波器降低数据噪音,计算手部方向;在数据传输部分,PC将处理好的数据通过服务器发送到HoloLens上的客户端;在场景重建阶段,HoloLens使用接收到的数据在虚拟场景中将手部重新构建出来。本发明不依靠任何手持设备就可以捕捉手部动作,提高了人与机器的交互亲和性,增强了游戏的真实感。
-
公开(公告)号:CN108647174A
公开(公告)日:2018-10-12
申请号:CN201810383670.4
申请日:2018-04-26
Applicant: 华南理工大学
Abstract: 本发明公开了一种基于软件总线的无人机快自愈系统,通过软件总线和模块化的系统设计,保证了系统轻量化、可扩展性和功能模块的互操作性;系统通过基于配置文件的双软件总线互相评估,避免了单节点故障问题,实现体系核心组件软件总线的自愈;软件总线采用功能和核心数据分离的方法,有效提升了软件总线的自愈性能;功能模块自愈分级的机制,既保证了模块自愈要求,又合理使用了无人机运算和存储资源。
-
公开(公告)号:CN108334199A
公开(公告)日:2018-07-27
申请号:CN201810144421.X
申请日:2018-02-12
Applicant: 华南理工大学
IPC: G06F3/01 , G10L15/187 , G10L15/22
CPC classification number: G06F3/017 , G06F2203/012 , G10L15/187 , G10L15/22 , G10L2015/223
Abstract: 本发明公开了一种基于增强现实的移动式多模态交互方法及装置,该方法包括以下步骤:通过增强现实方式显示人机交互界面,增强现实虚拟场景包括虚拟物体等交互信息;用户通过手势和语音的方式发送交互指令,通过多模态融合方法,理解不同模态语义,并融合手势与语音的模态数据,产生多模态融合交互指令;用户交互指令作用后,其作用结果返回增强现实虚拟场景中,通过场景的变化进行信息反馈。本发明的装置包括手势传感器、PC机、麦克风、光学透过式增强现实显示设备、WiFi路由器。本发明提供了一种结合增强现实技术与多模态交互的方法及装置,体现以人为中心的思想,自然直观,降低了学习负荷,提高了交互效率。
-
公开(公告)号:CN108333941A
公开(公告)日:2018-07-27
申请号:CN201810150908.9
申请日:2018-02-13
Applicant: 华南理工大学
IPC: G05B13/04
Abstract: 本发明提出了一种基于混合增强智能的云机器人协作学习方法。该方法包括以下步骤:S1、采用NTP(Neural Task Programming,神经任务编程)的元学习方法,将一个大的任务递归的分解成简单的子任务,用于机器人示教;S2、基于人机交互技术实现机器人动作模仿学习,教会机器人技能;S3、利用增量的自我组织的神经网络(Self-organizing incremental neural network,SOINN),将分散的机器人技能汇总一起共享使用。本发明让多个机器人分别学习人类的技能,然后把学到的信息上传到服务器中,再共用服务器中的信息进行训练和调整。不仅能将学习时间大大缩短,还能对任务的多样性进行扩展。机器人进行合作式学习,通过网络(或称为云机器人)将经验传输给彼此,也就是让机器人可以相互学习。
-
公开(公告)号:CN103112007A
公开(公告)日:2013-05-22
申请号:CN201310047285.X
申请日:2013-02-06
Applicant: 华南理工大学
Abstract: 本发明提供了基于混合传感器的人机交互方法,包括步骤:(1)实时获取并处理操作员通过手部运动进行机器人操作任务过程中的RGB图像和深度图像,得到操作员的手部位置;(2)使用惯性测量仪测量操作员的手部姿态,并结合四元数算法(FQA)和卡尔曼滤波(KFs)对姿态数据进行估计,从而得到稳定的操作员的手部姿态;(3)根据上述步骤获取的操作员手部位姿驱动机器人。本发明允许操作者通过三维的手部动作来控制机器人。本发明允许操作员使用手部和手臂的动作控制机器人而没有物理装置的限制,只需要把精力集中在手头的任务也不用把任务都分解为那些有限的指令。
-
-
-
-
-
-
-
-
-