信号时序逻辑约束下基于终点回溯的任务规划方法和装置

    公开(公告)号:CN113255967A

    公开(公告)日:2021-08-13

    申请号:CN202110466457.1

    申请日:2021-04-28

    Abstract: 本发明公开了一种信号时序逻辑约束下基于终点回溯的任务规划方法和装置,该方法首先离线构建搜索树:在智能体的二维位置工作空间中,加入时间维信息,构建三维空间;信号时序逻辑约束下,在三维空间中,以根据智能体给定任务预估的终点为根节点,向起始状态平面生长快速随机搜索树,直到起始状态平面中每个有可能的位置点都被叶子节点覆盖;在线任务规划时,给定智能体的初始状态,在快速随机搜索树中搜索智能体可达范围内的所有叶子节点,选择代价值最小的叶子节点作为规划节点;智能体从初始状态到规划节点再到根节点的路径就是路径规划结果。本发明能够遍历可达状态空间,提高收敛成功率,降低在线规划复杂度。

    一种改进的基于模板匹配的二次目标分群方法

    公开(公告)号:CN115964640B

    公开(公告)日:2023-09-12

    申请号:CN202211218506.0

    申请日:2022-10-06

    Inventor: 方浩 李尚昊 陈杰

    Abstract: 本发明涉及目标分群及态势估计技术领域,尤其涉及一种改进的基于模板匹配的二次目标分群方法。包括如下步骤:步骤1、构建模板库,步骤2、聚类,采用最近邻聚类方法,将战斗实体单元整合为一定数量的目标群;步骤3、初次分群,采用基于模板匹配的算法对所得到的群体类型进行识别,选取匹配度最高的模板作为集群的类型,从而实现空间群层次的目标分群;步骤4、二次分群,结合初次分群结果并考虑通讯代价仍采用模板匹配算法计算匹配度的思想,进行二次分群。采用最近邻法进行聚类,并基于模板匹配进行初次分群,结合初次分群结果进行二次分群,有效解决了传统方法难以应对战场目标空间位置有交叉重叠的情况。

    一种改进的基于模板匹配的二次目标分群方法

    公开(公告)号:CN115964640A

    公开(公告)日:2023-04-14

    申请号:CN202211218506.0

    申请日:2022-10-06

    Inventor: 方浩 李尚昊 陈杰

    Abstract: 本发明涉及目标分群及态势估计技术领域,尤其涉及一种改进的基于模板匹配的二次目标分群方法。包括如下步骤:步骤1、构建模板库,步骤2、聚类,采用最近邻聚类方法,将战斗实体单元整合为一定数量的目标群;步骤3、初次分群,采用基于模板匹配的算法对所得到的群体类型进行识别,选取匹配度最高的模板作为集群的类型,从而实现空间群层次的目标分群;步骤4、二次分群,结合初次分群结果并考虑通讯代价仍采用模板匹配算法计算匹配度的思想,进行二次分群。采用最近邻法进行聚类,并基于模板匹配进行初次分群,结合初次分群结果进行二次分群,有效解决了传统方法难以应对战场目标空间位置有交叉重叠的情况。

    基于相关均衡的无信号十字路口自动驾驶规划方法和装置

    公开(公告)号:CN119580515A

    公开(公告)日:2025-03-07

    申请号:CN202411430266.X

    申请日:2024-10-14

    Abstract: 本公开提供了一种基于相关均衡的无信号十字路口自动驾驶规划方法和装置。将无信号十字路口中的车辆建模为非合作博弈;根据车辆在十字路口冲突的情况,从通行和让行中,为每个冲突点分配动作,形成动作组合,对应一个策略;通过分配的排列组合获得建模中的可行动作集;根据车辆进入路口的初速度,按照匀速通行、匀减速让行的原则,对每种策略进行速度规划;根据速度规划结果,确定每种策略的车辆运动轨迹,从而计算收益;以收益最大化为目标,采用相关均衡算法进行博弈策略求解,进而选择最终策略组合,并告知每个车辆为其推荐的驾驶策略。应用本发明进行无信号十字路口的车辆决策,可以减少碰撞和死锁的发生,并提高通行效率。

    一种基于强化学习的攻防博弈决策方法

    公开(公告)号:CN115983389A

    公开(公告)日:2023-04-18

    申请号:CN202211565334.4

    申请日:2022-12-07

    Abstract: 本发明涉及强化学习及攻防博弈技术领域,尤其涉及一种基于强化学习的攻防博弈决策方法。包括如下步骤:步骤1,为所有的动作价值函数,状态价值函数以及最优策略设置初值。步骤2,以一定概率随机选取动作,否则根据最优策略选取动作。步骤3,通过执行步骤2中的动作,状态空间发生了转移,并且反馈奖励值。步骤4,更新动作价值函数。步骤5,通过线性规划方法求解混合纳什均衡策略,并更新最优策略与状态价值函数。步骤6,重复步骤2至步骤5,直至动作价值函数,状态价值函数以及最优策略收敛。解决了奖励稀疏化问题,保证了理性博弈双方决策的最优性。

Patent Agency Ranking