一种基于视觉的动态手势识别与移动机器人控制方法

    公开(公告)号:CN117008722A

    公开(公告)日:2023-11-07

    申请号:CN202310845918.5

    申请日:2023-07-11

    Abstract: 本发明公开了一种基于视觉的动态手势识别与移动机器人控制方法,采用经过调整的3DCNN模型作为动态手势识别模型,通过将主干网络改进为ResNetxt‑50,进而提升网络的特征提取能力和表征能力,然后引入了卷积块注意力模块(CBAM)来增强网络对重点区域的关注度,最后使用Mish激活函数避免了网络中出现神经元坏死的情况。最后综合考虑模型的精度与运行速度,以改进的3DCNN模型作为人机交互的基础模型并定义了动态手势控制指令,然后利用该模型识别动态手势并将手势识别结果发送给移动机器人,从而利用手势控制移动机器人的运动轨迹与方向。本发明能有效解决动态手势识别精确度不高的问题,并能提高手势控制机器人运动的能力。

    一种多策略下的多场景图像翻译及视频生成方法

    公开(公告)号:CN116863255A

    公开(公告)日:2023-10-10

    申请号:CN202310768800.7

    申请日:2023-06-28

    Abstract: 本发明提供一种多策略下的多场景图像翻译及视频生成方法,涉及到多场景问题下多策略的图像翻译技术。针对多场景下图像翻译可控性弱以及解耦性不强的问题,考虑多场景下图像翻译所涉及的信息,包括多样性、语义性、配对性、层次性和耦合性,设计了一种基于对偶学习、增强循环一致性和分层解耦的多策略体系,实现对待翻译图像中的属性信息、特征信息、背景信息的统一编辑,实现多场景下图像翻译模型的构建。本发明能有效解决图像翻译存在的场景复杂、可解释性弱、可控性不强以及耦合性强的问题,提升图像翻译模型在多场景下,针对单一特征或多特征的生成和翻译能力。

Patent Agency Ranking