-
公开(公告)号:CN114594756A
公开(公告)日:2022-06-07
申请号:CN202011380399.2
申请日:2020-11-30
Applicant: 上海交通大学
IPC: G05D1/02
Abstract: 本发明提供了一种动态障碍环境下的多车协同编队控制方法,无人车检测障碍物信息,确定无人车之间的编队距离;根据障碍物信息以及编队距离参数,通过优化算法确定领航者局部目标点,利用模型预测控制方法跟踪局部目标点,得到领航者在预测时域内的运动轨迹与对应的控制量;将运动轨迹以及编队距离参数传递给跟随者,计算出自身在预测时域内的参考轨迹,利用模型预测控制方法跟踪参考轨迹,获得在预测时域内的控制量;将领航者在当前时刻的控制量施加给领航者,将跟随者在当前时刻的控制量施加给跟随者,直到领航者到达全局目标点。本发明在滚动优化框架下建立动态障碍避障约束,通过模型预测控制方法,实现多无人车系统对动态障碍环境的适应性。
-
公开(公告)号:CN119472783A
公开(公告)日:2025-02-18
申请号:CN202411587548.0
申请日:2024-11-08
Applicant: 上海交通大学
IPC: G05D1/695
Abstract: 本发明提供了时空任务驱动下多智能体强化学习任务规划与控制方法,包括:S1,建立多智能体系统下信号时序逻辑任务的强化学习控制器训练架构;S2,建立多智能体系统间的自注意力动作补偿机制;S3,根据任务框架构造信号时序逻辑任务对应的鲁棒值过滤基线;S4,根据环境信息对智能体动作生成软约束;S5,根据补偿动作程度构造多目标任务的冲突检测与任务重规划机制;S6,基于约束条件,迭代训练控制器参数以在线给出控制律满足STL任务需求。本发明利用强化学习的方式学习控制器参数,适应复杂环境下在线求解控制律,给出的控制律更加符合外部环境和内部动态系统的实际情况,大大减少在线计算控制律的负担。
-
公开(公告)号:CN114594756B
公开(公告)日:2025-01-14
申请号:CN202011380399.2
申请日:2020-11-30
Applicant: 上海交通大学
IPC: G05D1/43 , G05D1/65 , G05D1/633 , G05D1/692 , G05D109/10
Abstract: 本发明提供了一种动态障碍环境下的多车协同编队控制方法,无人车检测障碍物信息,确定无人车之间的编队距离;根据障碍物信息以及编队距离参数,通过优化算法确定领航者局部目标点,利用模型预测控制方法跟踪局部目标点,得到领航者在预测时域内的运动轨迹与对应的控制量;将运动轨迹以及编队距离参数传递给跟随者,计算出自身在预测时域内的参考轨迹,利用模型预测控制方法跟踪参考轨迹,获得在预测时域内的控制量;将领航者在当前时刻的控制量施加给领航者,将跟随者在当前时刻的控制量施加给跟随者,直到领航者到达全局目标点。本发明在滚动优化框架下建立动态障碍避障约束,通过模型预测控制方法,实现多无人车系统对动态障碍环境的适应性。
-
公开(公告)号:CN116433140A
公开(公告)日:2023-07-14
申请号:CN202310411422.7
申请日:2023-04-17
Applicant: 上海交通大学
IPC: G06Q10/0834 , G06Q10/0835 , G06Q10/0631 , G06N3/08 , G08G1/00
Abstract: 本发明提供一种混合车队动态定价场景下实时控制策略控制方法,包括:建立混合车队实时控制策略的模型;建立混合车队实时控制策略的优化问题;提出深度化学习框架求解混合车队实时控制策略;改进深度化学习框架求解混合车队实时控制策略。本发明能够对复杂的车队运营场景和人类驾驶车辆与自动驾驶车辆的相互影响进行描述;能够对车队运营的具体操作进行描述;将混合车队的实时控制策略问题表述为优化问题,指向清晰、目标明确;分析并改进了优化问题的求解难度,提高了策略获取效率;采用深度强化学习的框架,将订单的定价和对人类驾驶车辆的激励与车辆移动去向分开,减轻强化学习训练压力,提高混合车队的运营表现。
-
-
-