-
公开(公告)号:CN116935492B
公开(公告)日:2025-03-25
申请号:CN202310987468.3
申请日:2023-08-07
Applicant: 北京邮电大学
IPC: G06V40/20 , G06V10/774 , G06V10/40
Abstract: 本发明提出一种基于图关系交互学习的人体动作预测方法,包括,获取训练数据集,所述训练数据集包括人体动作序列;构建图关系交互学习网络,其中,图关系交互学习网络采用双支路对称残差图卷积网络GCN结构,双支路GCN之间的连接类型包括数据流和参数流;通过训练数据集对图关系交互学习模型进行训练,其中,训练采用平均每关节位置误差损失和平均每关节速度误差损失加权结合的损失函数;获取待预测数据,将待预测数据输入训练完成的图关系交互学习网络,获取人体动作预测结果。本发明实现了更精确的人体动作预测。
-
公开(公告)号:CN116935492A
公开(公告)日:2023-10-24
申请号:CN202310987468.3
申请日:2023-08-07
Applicant: 北京邮电大学
IPC: G06V40/20 , G06V10/774 , G06V10/40
Abstract: 本发明提出一种基于图关系交互学习的人体动作预测方法,包括,获取训练数据集,所述训练数据集包括人体动作序列;构建图关系交互学习网络,其中,图关系交互学习网络采用双支路对称残差图卷积网络GCN结构,双支路GCN之间的连接类型包括数据流和参数流;通过训练数据集对图关系交互学习模型进行训练,其中,训练采用平均每关节位置误差损失和平均每关节速度误差损失加权结合的损失函数;获取待预测数据,将待预测数据输入训练完成的图关系交互学习网络,获取人体动作预测结果。本发明实现了更精确的人体动作预测。
-
公开(公告)号:CN115294228B
公开(公告)日:2023-07-11
申请号:CN202210911159.3
申请日:2022-07-29
Applicant: 北京邮电大学
IPC: G06T11/00 , G06T17/00 , G06V10/774 , G06V10/82 , G06V40/20 , G06N3/0464
Abstract: 本发明提出一种基于模态引导的多图人体姿态生成方法及装置,其中方法包括,获取训练数据集,训练数据集包括人体动作序列;将训练数据集输入模态引导多图模型,其中模态引导多图网络包括时序特征增强子网络和特征提取子网络;通过时序特征增强子网络对人体动作序列进行裁剪,对后T帧的特征占比进行增强,获取特征增强数据集;同时通过复制最后一帧,提高输入序列中最后一帧的贡献度;根据动作幅度将特征增强数据集分为多个模态子集;通过特征提取子网络对多个模态子集分别进行建模提取特征,再根据动作幅度的划分方式还原至人体全局姿态序列。本发明实现了由模态引导的对动静态不同关节点的多图建模。
-
公开(公告)号:CN115294228A
公开(公告)日:2022-11-04
申请号:CN202210911159.3
申请日:2022-07-29
Applicant: 北京邮电大学
Abstract: 本发明提出一种基于模态引导的多图人体姿态生成方法及装置,其中方法包括,获取训练数据集,训练数据集包括人体动作序列;将训练数据集输入模态引导多图模型,其中模态引导多图网络包括时序特征增强子网络和特征提取子网络;通过时序特征增强子网络对人体动作序列进行裁剪,对后T帧的特征占比进行增强,获取特征增强数据集;同时通过复制最后一帧,提高输入序列中最后一帧的贡献度;根据动作幅度将特征增强数据集分为多个模态子集;通过特征提取子网络对多个模态子集分别进行建模提取特征,再根据动作幅度的划分方式还原至人体全局姿态序列。本发明实现了由模态引导的对动静态不同关节点的多图建模。
-
-
-