-
公开(公告)号:CN102178540A
公开(公告)日:2011-09-14
申请号:CN201110066274.7
申请日:2011-03-18
Applicant: 北京科技大学
IPC: A61B5/16
Abstract: 本发明属于自动控制及机器人领域,涉及一种三轮式全向移动控制装置。该装置采用双前轮驱动提高了机器人的驱动能力和负载能力;引入V_Rotation旋转因子,通过增量式PID控制整个调节的过程,实现机器人任意方向精确的直线及弧线运动实现自动避让障碍和路径规划。本发明针对自闭症儿童进行实时监护及辅助治疗的机器人装置及其控制技术,提供一种人机交互过程中机器人对交互对象的情感捕捉和情感交互技术,进而提高机器人人机交互中的亲和力和交互成功率。
-
公开(公告)号:CN102176222A
公开(公告)日:2011-09-07
申请号:CN201110066836.8
申请日:2011-03-18
Applicant: 北京科技大学
Abstract: 本发明属于机器人领域,涉及一种多传感器信息采集分析系统以及使用该系统的、针对自闭症儿童进行实时监护及辅助治疗的机器人装置及其控制技术。本发明的多传感器信息采集分析系统多传感器、采集器、信息输出设备采用控制器局域网(CAN)现场总线进行通信信息的传输,这种分布式信息融合技术使设备的挂载和裁剪更为方便和高效。采用多信息融合技术,增加了机器人获取交互对象情感的途径,提高了人机交互的亲和度和交互成功率。
-
公开(公告)号:CN102125422A
公开(公告)日:2011-07-20
申请号:CN201010033780.1
申请日:2010-01-12
Applicant: 北京科技大学
IPC: A61B3/113
Abstract: 本发明提出一种视线追踪系统中基于瞳孔-角膜反射的视线估计方法,属于人机交互领域。针对现有PCCR存在的主要问题:限制使用者头部运动和个体标定问题,提出了一种单相机单光源条件下头部位置的补偿方法,实现了头部位置变化对瞳孔角膜向量影响的解析补偿,并建立一种个体差异的转化模型,进而简化标定过程为单点标定。以此为基础形成一种新的视线估计方法,本方法使精确视线估计的最小硬件要求降低到单相机(未标定)单光源,既不需要繁杂的系统标定,又实现了自然头动视线估计,并且简化用户标定为单点标定。该方法的各个环节都满足实时性要求,为面向人机交互的视线追踪系统提供了有效的解决方案。
-
公开(公告)号:CN101474481B
公开(公告)日:2010-07-21
申请号:CN200910076620.2
申请日:2009-01-12
Applicant: 北京科技大学
Abstract: 本发明涉及情感机器人系统,尤其是指一种能够产生仿人面部表情并且能够与人进行交互的机器人。本发明由具有六种面部表情的机器人头部系统和以PC为控制中心的软件平台构成。情感机器人通过红外传感器、麦克、摄像头等设备检测外部环境的信息。PC对收集到的外部环境信息首先进行情感特征提取,其次分析出语音情感和检测到的人脸的面部表情,然后决策出机器人要表达的情感。情感机器人通过语音输出,面部表情和身体语言来表达其情感。PC通过串口向单片机发送指令,单片机在接收到指令后,驱动电机运动从而产生机器人的面部表情和身体语言。它可用于家庭服务机器人,助老助残机器人,迎宾机器人,解说机器人,以及人与机器人的交互研究平台。
-
公开(公告)号:CN101692261A
公开(公告)日:2010-04-07
申请号:CN200910169792.4
申请日:2009-09-02
Applicant: 北京科技大学
Abstract: 本发明提出了一种运用于儿童用户玩伴机器人的个性化情感模型,所述模型主要包括情绪状态刺激转移过程的随机过程模型、情绪状态自发转移过程的马尔可夫链模型、心境状态刺激转移的控制论模型、心境状态自发转移的动态平衡模型。本发明现有的情绪模型基础上,提出了融合个性化交互技术心境模型及上述四模型的整合,并提出了模型的应用方法实现了软件化。
-
公开(公告)号:CN101661569A
公开(公告)日:2010-03-03
申请号:CN200910177066.7
申请日:2009-09-18
Applicant: 北京科技大学
IPC: G06N3/00 , G05B19/418 , G05D1/02 , G10L13/00
CPC classification number: Y02P90/02
Abstract: 本发明基于人工心理模型,从心理学的角度研究机器人行为表达模式和方法,提供一种智能情感机器人多模态行为关联表达系统,所述系统接受人工心理模型输出的情感信号的统一驱动,具有统一的行为驱动机制,各行为的表达更加协调和谐。其包括语言表达模块、表情表达模块和动作表达模块三大模块,所述三大模块接受人工心理模型输出的情感信号的统一驱动,智能情感机器人语言、表情、动作的表达在时序上:同一时刻执行语言、表情、动作的表达,在逻辑上:接受情感信号的统一驱动而具有一致性。
-
公开(公告)号:CN101355261A
公开(公告)日:2009-01-28
申请号:CN200810222701.4
申请日:2008-09-22
Applicant: 北京科技大学
Abstract: 本发明提出的小型双足步行机器人电源管理系统涉及人工智能技术及电力电子技术,一方面围绕锂聚合物电池设计充电电路、监测电路及保护电路,实现电池良好快速充电,监测显示电池电压、温度、剩余电量等重要信息,防止短路、过放电、过电流及过温度给电池造成损害;另一方面围绕机器人设计不间断供电模块、多路稳压电源模块,实现机器人外部电源供电和电池供电的快速切换,为机器人控制电路板及舵机分别提供稳定的电源。在具体的控制器程序设计中还提出了基于数字PID调节的充电控制算法,以及放电实验法与开路电压法相结合的SOC预测算法。本发明通过设计一套完善的电源管理系统,使得机器人运行的稳定性和安全性得到保障。
-
公开(公告)号:CN112862731A
公开(公告)日:2021-05-28
申请号:CN202110084519.2
申请日:2021-01-21
Applicant: 北京科技大学 , 浙江大学医学院附属邵逸夫医院
Abstract: 本发明公开了一种TOF影像的全自动血管提取方法,包括:结合TOF影像中的脑部特征,基于区域生长和成本最优路径提取脑部区域;获取种子点集,自动提取血管区域和背景区域,并作为随机游走的起点;建立空间多尺度的血管影像增强图,将影像中的管状部分进行增强;建立随机游走图谱,基于所述种子点集和所述血管影像增强图,通过随机游走得到分割后的三维血管结构。与现有技术相比,本发明方法能够有效提取到血管分支中体积细小且对比度低的部分,提高血管分割的准确度。并且,本发明能够实现提取血管的过程完全自动化,无需手动交互,减少了人为操作的复杂性。
-
公开(公告)号:CN111660294A
公开(公告)日:2020-09-15
申请号:CN202010419510.8
申请日:2020-05-18
Applicant: 北京科技大学
Abstract: 本发明提供一种液压重载机械臂增强现实操控系统,包括现场图像信息采集模块,用于采集现场作业的图像信息及目标物体的空间位置信息;人工交互操作模块,用于操作员介入作业流程;MySQL数据库模块,用于存储用户信息、图像信息和路径规划信息;云端服务器模块,用于在云端生成目标模型,并根据作业任务结合路径规划信息计算路径;数据可视化模块,用于在操作界面显示数据分析结果;防撞检测模块,用于在模型数据层面验证计算的路径是否能够安全可靠执行;数据整合模块,用于将经过验证的可靠数据按照协议要求写入数据帧;紧急停止模块,用于突发状况时紧急断开对机械臂的控制。本发明能提高机械臂作业的智能性、操作的友好性以及可靠性。
-
公开(公告)号:CN107856039B
公开(公告)日:2020-06-05
申请号:CN201711137831.3
申请日:2017-11-16
Applicant: 北京科技大学
Abstract: 本发明提供了一种养老陪护服务机器人系统及养老陪护方法,所述系统通过机器人本体,获取用户的头部姿态、面部表情图像信息,通过无线路由网关传到上位机图像处理与控制子系统;由上位机图像处理与控制子系统对头部姿态和表情图像进行两次图像分析,准确、高效地分析用户的情感状态,并根据结果发送无线指令控制机器人做出相应的反馈动作,既能给老年用户带来精神上慰藉,又能便于存储分析老年用户的情感信息,使服务机器人与服务对象实现更好的人机交互。同时,本发明实现了上位机与无线视频传输模块和无线通信模块的同步通信,机器人在移动过程中实时通信,既提高了通信的效率,又避免了有线控制的繁琐。
-
-
-
-
-
-
-
-
-