-
公开(公告)号:CN102708377A
公开(公告)日:2012-10-03
申请号:CN201210125122.4
申请日:2012-04-25
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供一种虚拟人组合任务规划方法,包括:步骤1、基于运动捕获数据,构建虚拟人的行为图;步骤2、找到关键状态,并基于关键状态将组合任务分解为子任务;步骤3、学习每一个子任务的最优控制策略;和步骤4、基于虚拟人在环境中的初始状态,计算组合任务的最优动作序列。该方法能减少运动规划过程中所需的计算时间和存储空间;而且无需对控制器值函数的形状作任何假设,就能保证规划算法以概率一收敛至最优控制策略。
-
公开(公告)号:CN102708377B
公开(公告)日:2014-06-25
申请号:CN201210125122.4
申请日:2012-04-25
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供一种虚拟人组合任务规划方法,包括:步骤1、基于运动捕获数据,构建虚拟人的行为图;步骤2、找到关键状态,并基于关键状态将组合任务分解为子任务;步骤3、学习每一个子任务的最优控制策略;和步骤4、基于虚拟人在环境中的初始状态,计算组合任务的最优动作序列。该方法能减少运动规划过程中所需的计算时间和存储空间;而且无需对控制器值函数的形状作任何假设,就能保证规划算法以概率一收敛至最优控制策略。
-
公开(公告)号:CN101840586A
公开(公告)日:2010-09-22
申请号:CN201010140864.5
申请日:2010-04-02
Applicant: 中国科学院计算技术研究所
IPC: G06T15/70
Abstract: 本发明涉及虚拟人运动规划方法及其系统,方法包括:步骤1,通过运动捕捉设备获得虚拟人的运动数据;步骤2,创建增强学习模型,增强学习模型包括通过采样环境获得的状态、通过采样运动数据获得的动作,配置的状态对应于动作的一次性奖惩值,状态对应于动作的累计奖惩值,初始化累计奖惩值;步骤3,应用一次性奖惩值和累计奖惩值,状态的后续状态对应于各个动作的累计奖惩值,对状态对应于动作的累计奖惩值进行迭代更新;步骤4,对于给定的虚拟人的状态,根据状态对应于动作的累计奖惩值从采集获得的动作中选择从给定的虚拟人的状态到设定的目标状态间的动作。本发明能够选择不同类型的运动片段作为样本数据,并在运动合成时避免耗时计算。
-
公开(公告)号:CN101840586B
公开(公告)日:2012-04-11
申请号:CN201010140864.5
申请日:2010-04-02
Applicant: 中国科学院计算技术研究所
Abstract: 本发明涉及虚拟人运动规划方法及其系统,方法包括:步骤1,通过运动捕捉设备获得虚拟人的运动数据;步骤2,创建增强学习模型,增强学习模型包括通过采样环境获得的状态、通过采样运动数据获得的动作,配置的状态对应于动作的一次性奖惩值,状态对应于动作的累计奖惩值,初始化累计奖惩值;步骤3,应用一次性奖惩值和累计奖惩值,状态的后续状态对应于各个动作的累计奖惩值,对状态对应于动作的累计奖惩值进行迭代更新;步骤4,对于给定的虚拟人的状态,根据状态对应于动作的累计奖惩值从采集获得的动作中选择从给定的虚拟人的状态到设定的目标状态间的动作。本发明能够选择不同类型的运动片段作为样本数据,并在运动合成时避免耗时计算。
-
-
-