-
公开(公告)号:CN119283834A
公开(公告)日:2025-01-10
申请号:CN202411581642.5
申请日:2024-11-07
Applicant: 北京理工大学
Abstract: 本发明提供了一种基于多智能体强化学习的混合动力汽车生态驾驶策略,其不同于基于传统强化学习的生态驾驶策略,创新性地设计了多智能体协同训练框架,从而能够有效避免上层速度规划和下层能量管理解耦处理,实现了全局协同优化,并可获取更优的节能效果。本发明的策略相比现有技术大幅缩减了计算时间,在控制中提供了较好的实时性。
-
公开(公告)号:CN112018465B
公开(公告)日:2021-01-29
申请号:CN202011087624.3
申请日:2020-10-13
Applicant: 北京理工大学
Abstract: 本发明公开了一种多物理场约束的锂离子电池智能快速充电方法,包括以下步骤:S1.开展锂离子电池测试,建立锂离子电池电热耦合模型和老化模型;S2.定义动作空间和奖励函数,定义优先经验回放池;S3.设定离线训练场景,获取初始时刻状态变量,利用策略网络获取当前状态下的动作变量,并扩大动作选取范围;S4.生成充电动作、电池状态转移、奖励值并记录于经验池,进行DDPG网络的同步更新;S5.循环执行S3‑S4,直至策略网络和价值网络收敛,导出策略网络成为深度强化学习(DRL)快速充电策略;S6.估计强化学习状态空间内的各个变量;S7.确定当前时刻的最优充电动作。本发明兼顾充电速度、电池安全与寿命衰减抑制,训练后策略计算复杂度低,实时应用具有优势。
-
公开(公告)号:CN112018465A
公开(公告)日:2020-12-01
申请号:CN202011087624.3
申请日:2020-10-13
Applicant: 北京理工大学
Abstract: 本发明公开了一种多物理场约束的锂离子电池智能快速充电方法,包括以下步骤:S1.开展锂离子电池测试,建立锂离子电池电热耦合模型和老化模型;S2.定义动作空间和奖励函数,定义优先经验回放池;S3.设定离线训练场景,获取初始时刻状态变量,利用策略网络获取当前状态下的动作变量,并扩大动作选取范围;S4.生成充电动作、电池状态转移、奖励值并记录于经验池,进行DDPG网络的同步更新;S5.循环执行S3-S4,直至策略网络和价值网络收敛,导出策略网络成为深度强化学习(DRL)快速充电策略;S6.估计强化学习状态空间内的各个变量;S7.确定当前时刻的最优充电动作。本发明兼顾充电速度、电池安全与寿命衰减抑制,训练后策略计算复杂度低,实时应用具有优势。
-
-