基于深度状态空间模型的3D人体运动预测方法

    公开(公告)号:CN112581499A

    公开(公告)日:2021-03-30

    申请号:CN202011500519.8

    申请日:2020-12-17

    Abstract: 本发明公开了一种基于深度状态空间模型的3D人体运动预测方法,先将人体运动的位置和速度作为观测,采用深度网络提取历史姿态序列的运动动力学规律来初始化状态空间模型的状态,通过状态到观测的转移递归地预测3D人体运动的多个未来姿态。本发明利用深度网络和状态空间模型的优点,将人体运动系统建模为深度状态空间模型,为各种人体运动系统提供了一个统一的描述,同时也能够对已有的模型进行分析。

    一种基于动态收缩蜜蜂觅食算法的图像分割方法及系统

    公开(公告)号:CN111524155A

    公开(公告)日:2020-08-11

    申请号:CN202010327412.1

    申请日:2020-04-23

    Inventor: 张志成 尹建芹

    Abstract: 本发明公开了一种基于动态收缩蜜蜂觅食算法的图像分割方法及系统,采用动态收缩蜜蜂觅食算法,该算法将整个蜂群分为多个子种群,不同的子种群采用不同的搜索策略以保持算法的多样性,并利用动态收缩策略对采蜜蜂的搜索范围进行自适应的动态调整,逐步找到图像分割的最佳阈值组合。本发明具有不依赖先验知识、算法调节参数少、算法具有较强的自适应能力等特点;此外,动态收缩策略的引入进一步加强了算法在阈值搜索过程中的动态适应性能,提高了算法的搜索效率,使算法在不需要人为参数调整干预的条件下,仍能够快速地搜索到最佳阈值组合。

    一种基于大语言模型和深度学习的多模式软体手抓取方法及系统

    公开(公告)号:CN118811189A

    公开(公告)日:2024-10-22

    申请号:CN202411111718.8

    申请日:2024-08-14

    Abstract: 本发明公开了一种基于大语言模型和深度学习的多模式软体手抓取方法及系统,方法包括:S1,利用深度相机拍摄RGB图片与深度图片;S2,将RGB图片作为输入,使用Yolo模型识别并分割图片中的物体,输出物体名称与其在图中的二维坐标;S3,将S2的输出与指令作为输入,使用GPT4判断应当抓取的物体名称,输出对应的二维坐标;S4,利用获得的二维坐标分割RGB图像与深度图像,获得待抓取对象的分割图;S5,提取RGB图像中物体二维形状特征与深度图像中深度特征,通过SVM分类模型判断物体形状;S6,将判断出的形状与抓取方式建立对应关系,最终得到抓取方式。本发明能够实现高准确率的实时物体识别和操作决策。

    一种基于深度图到点云的微表情识别方法

    公开(公告)号:CN118196853A

    公开(公告)日:2024-06-14

    申请号:CN202410205230.5

    申请日:2024-02-26

    Abstract: 本发明公开了一种基于深度图到点云的微表情识别方法,属于微表情识别技术领域,其包括:S1、准备工作:给定一个微表情数据集,以捕捉脸部的运动;S2、点云运动提取:通过深度图映射生成的密集点云可以保留完整的面部结构,同时点云在帧间高度对齐;S3、运动点云过滤:对运动点云过滤使得过滤后的点包含了最显著的运动幅度、方向和位置信息,充分表示面部动作特征;S4、点云模型验证:在多个点云模型上进行了验证,以评估运动点云有效性。本发明通过点与点之间的精确和全面的位置信息,它提供了更准确的面部运动信息,此外,通过去除静止点,完全保留面部运动信息,最大程度地减少了多余点的干扰。

    一种基于图关系交互学习的人体动作预测方法及装置

    公开(公告)号:CN116935492A

    公开(公告)日:2023-10-24

    申请号:CN202310987468.3

    申请日:2023-08-07

    Abstract: 本发明提出一种基于图关系交互学习的人体动作预测方法,包括,获取训练数据集,所述训练数据集包括人体动作序列;构建图关系交互学习网络,其中,图关系交互学习网络采用双支路对称残差图卷积网络GCN结构,双支路GCN之间的连接类型包括数据流和参数流;通过训练数据集对图关系交互学习模型进行训练,其中,训练采用平均每关节位置误差损失和平均每关节速度误差损失加权结合的损失函数;获取待预测数据,将待预测数据输入训练完成的图关系交互学习网络,获取人体动作预测结果。本发明实现了更精确的人体动作预测。

    基于模态引导的多图人体姿态生成方法及装置

    公开(公告)号:CN115294228B

    公开(公告)日:2023-07-11

    申请号:CN202210911159.3

    申请日:2022-07-29

    Abstract: 本发明提出一种基于模态引导的多图人体姿态生成方法及装置,其中方法包括,获取训练数据集,训练数据集包括人体动作序列;将训练数据集输入模态引导多图模型,其中模态引导多图网络包括时序特征增强子网络和特征提取子网络;通过时序特征增强子网络对人体动作序列进行裁剪,对后T帧的特征占比进行增强,获取特征增强数据集;同时通过复制最后一帧,提高输入序列中最后一帧的贡献度;根据动作幅度将特征增强数据集分为多个模态子集;通过特征提取子网络对多个模态子集分别进行建模提取特征,再根据动作幅度的划分方式还原至人体全局姿态序列。本发明实现了由模态引导的对动静态不同关节点的多图建模。

    基于模态引导的多图人体姿态生成方法及装置

    公开(公告)号:CN115294228A

    公开(公告)日:2022-11-04

    申请号:CN202210911159.3

    申请日:2022-07-29

    Abstract: 本发明提出一种基于模态引导的多图人体姿态生成方法及装置,其中方法包括,获取训练数据集,训练数据集包括人体动作序列;将训练数据集输入模态引导多图模型,其中模态引导多图网络包括时序特征增强子网络和特征提取子网络;通过时序特征增强子网络对人体动作序列进行裁剪,对后T帧的特征占比进行增强,获取特征增强数据集;同时通过复制最后一帧,提高输入序列中最后一帧的贡献度;根据动作幅度将特征增强数据集分为多个模态子集;通过特征提取子网络对多个模态子集分别进行建模提取特征,再根据动作幅度的划分方式还原至人体全局姿态序列。本发明实现了由模态引导的对动静态不同关节点的多图建模。

    一种基于深度特征的无约束重复动作计数方法

    公开(公告)号:CN110598646B

    公开(公告)日:2022-07-12

    申请号:CN201910874723.7

    申请日:2019-09-16

    Abstract: 本发明公开了一种基于深度特征的无约束重复动作计数方法,其特征在于,具体步骤包括如下:构建BN‑Inception网络,并进行深度特征提取;将提取的深度特征进行降维,得到降维后的周期图;利用傅里叶变换对所述周期图进行分段阈值滤波,得到光滑的频率图;根据滤波后的频率图进行计数。本发明提供了一种基于深度特征的无约束重复动作计数方法,为了捕获较鲁棒的运动特征并有效的避免相机移动的干扰,对捕获的视频提取RGB和光流图,在此基础上使用深度ConvNets进行特征提取,基于特征值寻找体现重复动作的运动规律,使用变周期的傅里叶变换来处理复杂场景的非静止的视频动态,获取明显的运动频率,更好的统计重复运动次数。

    基于多标签与多解码器的全心脏ct分割方法及装置

    公开(公告)号:CN114445429A

    公开(公告)日:2022-05-06

    申请号:CN202210112153.X

    申请日:2022-01-29

    Abstract: 本发明提出一种基于多标签与多解码器的全心脏ct分割方法及装置,其中包括,获取训练CT图像,训练CT图像包括多个待分割目标对象以及所述多个待分割目标对象对应的第一标签信息;将多个待分割目标对象的第一标签信息按照预设规则进行融合,得到多个第二标签信息,其中,第一标签信息的粒度小于第二标签信息的粒度;对CT图像进行预处理,并将预处理后的CT图像剪裁为多个预设大小的图像块;构建U‑net网络,所述U‑net网络包括第一解码器和第二解码器,第一解码器用于分割细粒度标签,第二解码器用于分割粗粒度标签;根据图像块,以及第一标签信息和所述第二标签信息,对U‑net网络进行训练,生成分割模型;从而实现了对全心脏进行不同粒度的语义分割。

Patent Agency Ranking