基于群智进化蚁群算法的交通规划系统

    公开(公告)号:CN112614341A

    公开(公告)日:2021-04-06

    申请号:CN202011447986.9

    申请日:2020-12-09

    Applicant: 复旦大学

    Abstract: 本发明提供了一种基于群智进化蚁群算法的交通规划系统,对交通中涉及的可控制的信号灯以及车辆的行驶路径进行优化得到最短全局交通通行平均时间,其特征在于,包括:动作选择部根据信息素以及策略神经网络计算蚂蚁的行动概率,并根据该行动概率确定蚂蚁选择的策略;全局更新部根据每只蚂蚁的个体最优策略更新全局信息素;全局最优部对全局信息素进行计算得到全局的最优策略作为全局最优策略;个体损失构建部根据全局最优策略构建个体损失。本发明的交通规划系统对信号灯、车辆等细微的交通构成要素先进行个体优化,再进行全局优化,最后根据全局优化结果更新策略神经网络从而使得整个交通中的各个交通构成要素的最短通行平均时间。

    一种两栖机器人
    2.
    发明公开

    公开(公告)号:CN111746207A

    公开(公告)日:2020-10-09

    申请号:CN202010531060.1

    申请日:2020-06-11

    Applicant: 复旦大学

    Abstract: 本发明涉及一种两栖机器人,包括飞行机器人本体组件,所述飞行机器人本体组件的底部与地面机器人本体组件的顶部固定连接,所述飞行机器人本体组件包括飞行机器人机架,所述飞行机器人机架为镂空结构,其内部内置有相互连接的电源组件和控制器单元,所述飞行机器人机架上一端还设有GPS定位组件,所述地面机器人本体组件包括地面机器人机架,所述地面机器人机架内部设有视频吊舱,所述GPS定位组件和所述视频吊舱均与所述控制器单元相连接。与现有技术相比,本发明具有高效快速的空中作业能力,应对复杂地形的地面作业能力和高速地面运动能力等优点。

    基于群智进化蚁群算法的交通规划系统

    公开(公告)号:CN112614341B

    公开(公告)日:2022-02-22

    申请号:CN202011447986.9

    申请日:2020-12-09

    Applicant: 复旦大学

    Abstract: 本发明提供了一种基于群智进化蚁群算法的交通规划系统,对交通中涉及的可控制的信号灯以及车辆的行驶路径进行优化得到最短全局交通通行平均时间,其特征在于,包括:动作选择部根据信息素以及策略神经网络计算蚂蚁的行动概率,并根据该行动概率确定蚂蚁选择的策略;全局更新部根据每只蚂蚁的个体最优策略更新全局信息素;全局最优部对全局信息素进行计算得到全局的最优策略作为全局最优策略;个体损失构建部根据全局最优策略构建个体损失。本发明的交通规划系统对信号灯、车辆等细微的交通构成要素先进行个体优化,再进行全局优化,最后根据全局优化结果更新策略神经网络从而使得整个交通中的各个交通构成要素的最短通行平均时间。

    用于智能体连续空间行动规划的方法、装置及存储介质

    公开(公告)号:CN112264999A

    公开(公告)日:2021-01-26

    申请号:CN202011174304.1

    申请日:2020-10-28

    Applicant: 复旦大学

    Abstract: 本发明涉及一种用于智能体连续空间行动规划的方法、装置及存储介质,方法包括步骤:S1、将智能体连续空间行动过程中的状态观测量组成向量构成状态St,将智能体连续空间行动过程中的驱动控制量组成向量构成行动at;S2、构建并训练神经网络模型,每隔一段时间根据与环境交互的数据训练及更新神经网络模型;S3、基于神经网络模型进行KR‑PV‑UCT模拟,包括选择过程、扩展过程、评估过程和反向传播过程;S4、选择当前根节点下最优的行动与环境进行交互,智能体达到下一状态,重复S3~S4。与现有技术相比,本发明将KR‑UCT与神经网络融合运用到高维连续行动空间,在保证效果的前提下减少控制的延迟,实现智能体连续空间行动的高效规划。

    用于智能体连续空间行动规划的方法、装置及存储介质

    公开(公告)号:CN112264999B

    公开(公告)日:2022-06-28

    申请号:CN202011174304.1

    申请日:2020-10-28

    Applicant: 复旦大学

    Abstract: 本发明涉及一种用于智能体连续空间行动规划的方法、装置及存储介质,方法包括步骤:S1、将智能体连续空间行动过程中的状态观测量组成向量构成状态St,将智能体连续空间行动过程中的驱动控制量组成向量构成行动at;S2、构建并训练神经网络模型,每隔一段时间根据与环境交互的数据训练及更新神经网络模型;S3、基于神经网络模型进行KR‑PV‑UCT模拟,包括选择过程、扩展过程、评估过程和反向传播过程;S4、选择当前根节点下最优的行动与环境进行交互,智能体达到下一状态,重复S3~S4。与现有技术相比,本发明将KR‑UCT与神经网络融合运用到高维连续行动空间,在保证效果的前提下减少控制的延迟,实现智能体连续空间行动的高效规划。

Patent Agency Ranking