基于虚拟现实的陪护机器控制系统

    公开(公告)号:CN111267099B

    公开(公告)日:2023-02-28

    申请号:CN202010112652.X

    申请日:2020-02-24

    Applicant: 东南大学

    Abstract: 本发明公开了一种基于虚拟现实的陪护机器控制系统,其中:视觉单元,获取陪护机器周围的环境信息,并传递至虚拟场景生成单元和计算单元;计算单元,接收陪护机器控制指令,并依据环境信息计算得到陪护机器执行控制指令的动作序列;虚拟场景生成单元,用于将环境信息生成虚拟现实场景,并结合动作序列显示于所述触屏显示屏;触屏显示屏,用于接收针对动作序列的触屏调整指令并反馈至计算单元进行执行,接收针对动作序列的确认指令。采用上述方案,增加人机交互,实现陪护机器和人之间、陪护机器和环境之间自然、有效的交互,避免未知错误发生的概率,降低陪护机器对用户及所处环境造成危害的可能性。

    复杂光照条件下基于视触融合的机械臂自主移动抓取方法

    公开(公告)号:CN113696186B

    公开(公告)日:2022-09-30

    申请号:CN202111177462.7

    申请日:2021-10-09

    Applicant: 东南大学

    Abstract: 本发明公开了复杂光照条件下基于视触融合的机械臂自主移动抓取方法,主要包括对目标位置的趋近控制和对环境信息的反馈控制。该方法在复杂光照条件下,加权融合预选区域的可见光与深度图像并基于深度神经网络完成对目标物体的识别与定位,并驱动移动机械臂不断趋近目标物体;另外根据传感器模块与外界环境及目标物体的接触力信息,调整机械臂位姿;同时融合目标物体的视觉与触觉信息,选取目标物体的最佳抓取位姿与合适的抓取力大小。该方法提升了物体定位精度与抓取准确率,并有效防止了机械臂的碰撞损坏与失稳,且减少了被抓物体的有害形变。

    基于虚拟现实的陪护机器控制系统

    公开(公告)号:CN111267099A

    公开(公告)日:2020-06-12

    申请号:CN202010112652.X

    申请日:2020-02-24

    Applicant: 东南大学

    Abstract: 本发明公开了一种基于虚拟现实的陪护机器控制系统,其中:视觉单元,获取陪护机器周围的环境信息,并传递至虚拟场景生成单元和计算单元;计算单元,接收陪护机器控制指令,并依据环境信息计算得到陪护机器执行控制指令的动作序列;虚拟场景生成单元,用于将环境信息生成虚拟现实场景,并结合动作序列显示于所述触屏显示屏;触屏显示屏,用于接收针对动作序列的触屏调整指令并反馈至计算单元进行执行,接收针对动作序列的确认指令。采用上述方案,增加人机交互,实现陪护机器和人之间、陪护机器和环境之间自然、有效的交互,避免未知错误发生的概率,降低陪护机器对用户及所处环境造成危害的可能性。

    陪护机器人的控制装置
    5.
    发明公开

    公开(公告)号:CN111267129A

    公开(公告)日:2020-06-12

    申请号:CN202010113344.9

    申请日:2020-02-24

    Applicant: 东南大学

    Abstract: 本发明公开了一种陪护机器人的控制装置,其中:装置本体,包括滑轨、指槽滑块和摇杆,所述指槽滑块活动设置于滑轨,用于接受按压;所述摇杆,用于控制所述陪护机器人;姿态解析装置,用于解析所述装置本体的三维姿态,当所述装置本体的三维姿态符合预设姿态时,控制所述陪护机器人进行对应的动作;触觉感知装置,用于感知所述指槽滑块接受的按压,并启动与按压信息对应的用户模式,控制装置本体进行相应的振动反馈。实现用户对控制装置的高效、便携控制,提高控制正确率,实现人机之间的有效交互。

    陪护机器人的控制装置
    7.
    发明授权

    公开(公告)号:CN111267129B

    公开(公告)日:2022-07-29

    申请号:CN202010113344.9

    申请日:2020-02-24

    Applicant: 东南大学

    Abstract: 本发明公开了一种陪护机器人的控制装置,其中:装置本体,包括滑轨、指槽滑块和摇杆,所述指槽滑块活动设置于滑轨,用于接受按压;所述摇杆,用于控制所述陪护机器人;姿态解析装置,用于解析所述装置本体的三维姿态,当所述装置本体的三维姿态符合预设姿态时,控制所述陪护机器人进行对应的动作;触觉感知装置,用于感知所述指槽滑块接受的按压,并启动与按压信息对应的用户模式,控制装置本体进行相应的振动反馈。实现用户对控制装置的高效、便携控制,提高控制正确率,实现人机之间的有效交互。

    复杂光照条件下基于视触融合的机械臂自主移动抓取方法

    公开(公告)号:CN113696186A

    公开(公告)日:2021-11-26

    申请号:CN202111177462.7

    申请日:2021-10-09

    Applicant: 东南大学

    Abstract: 本发明公开了复杂光照条件下基于视触融合的机械臂自主移动抓取方法,主要包括对目标位置的趋近控制和对环境信息的反馈控制。该方法在复杂光照条件下,加权融合预选区域的可见光与深度图像并基于深度神经网络完成对目标物体的识别与定位,并驱动移动机械臂不断趋近目标物体;另外根据传感器模块与外界环境及目标物体的接触力信息,调整机械臂位姿;同时融合目标物体的视觉与触觉信息,选取目标物体的最佳抓取位姿与合适的抓取力大小。该方法提升了物体定位精度与抓取准确率,并有效防止了机械臂的碰撞损坏与失稳,且减少了被抓物体的有害形变。

Patent Agency Ranking