-
公开(公告)号:CN110302539B
公开(公告)日:2022-12-23
申请号:CN201910716808.2
申请日:2019-08-05
Applicant: 苏州大学
Abstract: 本发明公开了一种游戏策略计算方法、装置、系统及计算机可读存储介质,该方法包括:预先采用多个历史游戏样本图像,建立基于评估网络最大动作值和最小动作值权重的游戏策略深度双Q网络模型;采用游戏策略深度双Q网络模型对目标游戏的多个图像进行分析,得到最优评估网络参数;依据最优评估网络参数计算出与目标游戏中每个情节中的每个状态分别对应的各个目标动作值;依据与每个情节中的每个状态分别对应的各个目标动作值得到与目标游戏对应的游戏策略,本发明在使用过程中能够得出最优的游戏策略,有助于提升用户的游戏体验。
-
公开(公告)号:CN109514553B
公开(公告)日:2021-09-21
申请号:CN201811391335.5
申请日:2018-11-21
Applicant: 苏州大学
Abstract: 本申请公开了一种机器人移动控制的方法,包括:建立基于线性动态跳帧的深度双Q网络模型;接收输入的初始参数值及环境信息;利用评估网络模型在初始状态下执行初始策略计算动作集合中每个动作的Q值,并根据各Q值来确定对应动作的跳帧率;根据目标网络模型计算环境信息的目标值;根据目标值确定最优策略,并令机器人执行最优策略进行移动。本申请所提供的技术方案,根据网络输出动作Q值的大小来线性地决定每个动作的跳帧率,在不增加网络计算量的前提下,高效准确地计算出了每个动作需要重复执行的次数,提高了机器人移动的运算速度及场景识别准确度。本申请还提供了一种机器人移动控制的系统、设备及计算机可读存储介质,具有上述有益效果。
-
公开(公告)号:CN110302539A
公开(公告)日:2019-10-08
申请号:CN201910716808.2
申请日:2019-08-05
Applicant: 苏州大学
Abstract: 本发明公开了一种游戏策略计算方法、装置、系统及计算机可读存储介质,该方法包括:预先采用多个历史游戏样本图像,建立基于评估网络最大动作值和最小动作值权重的游戏策略深度双Q网络模型;采用游戏策略深度双Q网络模型对目标游戏的多个图像进行分析,得到最优评估网络参数;依据最优评估网络参数计算出与目标游戏中每个情节中的每个状态分别对应的各个目标动作值;依据与每个情节中的每个状态分别对应的各个目标动作值得到与目标游戏对应的游戏策略,本发明在使用过程中能够得出最优的游戏策略,有助于提升用户的游戏体验。
-
公开(公告)号:CN106667127A
公开(公告)日:2017-05-17
申请号:CN201710138346.1
申请日:2017-03-09
Applicant: 苏州大学
Abstract: 一种坐姿矫正智能坐垫,包括坐垫本体、薄膜压力传感器、光纤传感器、嵌入式芯片处理单元和通信终端;所述薄膜压力传感器置于坐垫本体内部,采集用户压力数据;所述光纤传感器置于坐垫本体内部,采集用户生理数据;所述嵌入式芯片处理单元置于坐垫本体内部,分别与薄膜压力传感器和光纤传感器连接,接收用户压力数据和用户生理数据后进行分析并反馈给通信终端。本发明能有效的改进用户的坐姿和提醒用户坐下时间较长,保护用户在坐下时,避免因不正确的坐姿和久坐引起的意外伤害和疾病,对用户的健康具有积极作用。
-
公开(公告)号:CN109514553A
公开(公告)日:2019-03-26
申请号:CN201811391335.5
申请日:2018-11-21
Applicant: 苏州大学
Abstract: 本申请公开了一种机器人移动控制的方法,包括:建立基于线性动态跳帧的深度双Q网络模型;接收输入的初始参数值及环境信息;利用评估网络模型在初始状态下执行初始策略计算动作集合中每个动作的Q值,并根据各Q值来确定对应动作的跳帧率;根据目标网络模型计算环境信息的目标值;根据目标值确定最优策略,并令机器人执行最优策略进行移动。本申请所提供的技术方案,根据网络输出动作Q值的大小来线性地决定每个动作的跳帧率,在不增加网络计算量的前提下,高效准确地计算出了每个动作需要重复执行的次数,提高了机器人移动的运算速度及场景识别准确度。本申请还提供了一种机器人移动控制的系统、设备及计算机可读存储介质,具有上述有益效果。
-
-
-
-