一种基于图神经网络的强化学习集群蜂拥控制方法

    公开(公告)号:CN114859719A

    公开(公告)日:2022-08-05

    申请号:CN202210497058.6

    申请日:2022-05-05

    Abstract: 本发明公开了一种基于图神经网络的强化学习集群蜂拥控制方法,包括以下步骤:建立集群蜂拥控制模型;确定集群的拓扑结构特征表示方法;确定智能体的观测信息特征表示方法;设计状态空间、行为空间与回报函数;设计深度强化学习算法中的策略网络与评价网络模型;设计算法框架及网络参数更新方法;设计集群蜂拥控制算法的训练流程。本发明借助深度强化学习技术实现集群蜂拥控制算法,利用图神经网络提取集群的拓扑结构特征以及观测信息特征,有效提高集群蜂拥控制算法的收敛速度和对动态环境的适应能力,同时能够保证在控制噪声等干扰下算法的稳定性。

    一种基于文本语义的多任务多智能体协同控制方法

    公开(公告)号:CN118350449A

    公开(公告)日:2024-07-16

    申请号:CN202410479868.8

    申请日:2024-04-22

    Abstract: 本发明涉及信息技术领域,公开了一种基于文本语义的多任务多智能体协同控制方法,解决连续动作空间下多任务多智能体系统中任务间干扰严重和策略共享能力弱的问题,主要方案包括以下步骤:设计适应多任务状态维度变化以及根据文本语义信息区分任务的策略网络模型与评估网络模型;设计用于多任务多智能体协同控制的层级回放池;设计深度强化学习的策略模型更新方法。针对连续动作空间下的多个任务,提出深度强化学习多智能体协同控制方法,并设计了统一不同任务状态输入以及根据任务文本语义信息区分任务模块,提升智能体对任务状态维度变化的适应能力以及对任务的区分能力,设计了用于多任务多智能体的层级回放池,降低任务之间的干扰。

    一种基于Deep Q-Learning的集群区域覆盖方法

    公开(公告)号:CN114326749A

    公开(公告)日:2022-04-12

    申请号:CN202210026133.0

    申请日:2022-01-11

    Abstract: 本发明公开了一种基于Deep Q‑Learning的集群区域覆盖方法,包括以下步骤:建立集群系统的动力学模型;确定集群中智能体的邻居集合;建立集群系统的运动控制模型;对信息地图进行构造,并对信息地图进行编码;根据信息地图定义强化学习需要的状态空间、行为空间,回报函数;设计Deep Q‑Learning算法所需网络模型;设计自由区域下的Deep Q‑Learning区域覆盖算法;对得到的点按需调整,得到有障碍区域下的Deep Q‑Learning区域覆盖算法。本发明借助Deep Q‑Learning技术实现集群区域覆盖控制算法的训练与学习,实现自由区域和有障碍物区域下的集群区域覆盖,有效提高集群区域覆盖效率,同时能够保证在弱通信环境下算法的稳定性。

    一种基于图神经网络的强化学习集群蜂拥控制方法

    公开(公告)号:CN114859719B

    公开(公告)日:2025-01-21

    申请号:CN202210497058.6

    申请日:2022-05-05

    Abstract: 本发明公开了一种基于图神经网络的强化学习集群蜂拥控制方法,包括以下步骤:建立集群蜂拥控制模型;确定集群的拓扑结构特征表示方法;确定智能体的观测信息特征表示方法;设计状态空间、行为空间与回报函数;设计深度强化学习算法中的策略网络与评价网络模型;设计算法框架及网络参数更新方法;设计集群蜂拥控制算法的训练流程。本发明借助深度强化学习技术实现集群蜂拥控制算法,利用图神经网络提取集群的拓扑结构特征以及观测信息特征,有效提高集群蜂拥控制算法的收敛速度和对动态环境的适应能力,同时能够保证在控制噪声等干扰下算法的稳定性。

    基于机器学习的精子跟踪与自动提取方法

    公开(公告)号:CN114241006B

    公开(公告)日:2024-12-03

    申请号:CN202111560295.4

    申请日:2021-12-20

    Abstract: 本发明属于精子监测与自动提取的技术领域,提供了一种基于机器学习的精子跟踪与自动提取方法。目的在于解决目前主要的精子监测方法普遍存在监测精度较低,监测速度慢,不利于精子多目标实时追踪的问题。主要方案包括,获取精子样本的实时图像数据;通过YOLO‑V4、KCF跟踪器、Kalman滤波器实现多精子跟踪;根据跟踪结果计算精子的速度,并根据速度确定目标精子;使用YOLO‑V4检测提取针在图像中的位置;根据提取针的位置以及精子的跟踪位置构造提取针控制器的观测状态;将观测状态输入DDPG深度强化学习模型中的actor网络中,得到控制量。将actor网络输出控制量输入提取针控制器中,并将控制量转换成控制器可执行的控制信号。控制器根据控制信号执行控制量对应的行为。

    一种基于超图神经网络的多模态轨迹预测方法及装置

    公开(公告)号:CN118569305A

    公开(公告)日:2024-08-30

    申请号:CN202410569102.9

    申请日:2024-05-09

    Abstract: 本发明专利属于多智能体系统和深度学习领域,公开了一种基于超图神经网络的多模态轨迹预测方法及装置,主旨在于解决在多智能体通信中断场景下信息丢失导致算法失效的问题,主要方案利用Gazebo仿真平台构建多智能体集群仿真环境,采集并预处理智能体运动轨迹数据,构建数据集。采用图表示和注意力机制学习成对智能体交互特征,构建交互关系模型,通过神经信息传递机制更新智能体节点信息。设计基于条件变分自动编码器的多模态轨迹预测框架,融合交互关系模型和Transformer网络,实现长期高精度预测。通过模型量化提高实时性,并移植到集群控制算法中。在Gazebo仿真平台模拟通信中断场景测试,有效避免失控或碰撞问题,提升多智能体集群控制性能。

    一种基于多智能体强化学习的可扩展性集群控制方法

    公开(公告)号:CN118393880A

    公开(公告)日:2024-07-26

    申请号:CN202410479873.9

    申请日:2024-04-22

    Abstract: 本发明涉及多智能体系统、人工智能领域,公开了一种基于多智能体强化学习的可扩展性集群控制方法,包括以下步骤:建立多智能体集群运动控制模型;设计智能体的观测状态空间、动作空间、奖励函数;设计智能体Actor网络与基于注意力机制的Critic网络模型;设计算法框架以及网络更新方法;设计集群控制算法的训练流程;本发明利用多智能体深度强化学习技术在复杂环境中实现集群协同控制算法,利用注意力机制提取智能体之间的关键的状态信息,从复杂的全局信息中有选择性的聚焦于局部状态特征提升模型的适应性和泛化能力,使得算法能从小规模的训练中迁移到更大规模的任务,有效的应对更加复杂多变的环境。

    一种基于Deep Q-Learning的集群区域覆盖方法

    公开(公告)号:CN114326749B

    公开(公告)日:2023-10-13

    申请号:CN202210026133.0

    申请日:2022-01-11

    Abstract: 本发明公开了一种基于Deep Q‑Learning的集群区域覆盖方法,包括以下步骤:建立集群系统的动力学模型;确定集群中智能体的邻居集合;建立集群系统的运动控制模型;对信息地图进行构造,并对信息地图进行编码;根据信息地图定义强化学习需要的状态空间、行为空间,回报函数;设计Deep Q‑Learning算法所需网络模型;设计自由区域下的Deep Q‑Learning区域覆盖算法;对得到的点按需调整,得到有障碍区域下的Deep Q‑Learning区域覆盖算法。本发明借助Deep Q‑Learning技术实现集群区域覆盖控制算法的训练与学习,实现自由区域和有障碍物区域下的集群区域覆盖,有效提高集群区域覆盖效率,同时能够保证在弱通信环境下算法的稳定性。

    一种基于智能物联网的工地配电箱

    公开(公告)号:CN116707132A

    公开(公告)日:2023-09-05

    申请号:CN202310643612.1

    申请日:2023-06-01

    Abstract: 本发明涉及配电箱技术领域,尤其涉及一种基于智能物联网的工地配电箱。本发明的目的在于解决在工地环境下的,强干扰、弱无线通信环境下,无光缆宽带情况下配电柜稳定接入互联网的问题。主要方案包括一级配电箱、二级配电箱、三级配电箱中的至少一个设置有智能主机,智能主机连接云平台;所述一级配电箱内设置的第一传感探测器与第一通用采集器连接;所述二级配电箱内设置的第二传感探测器与第二通用采集器连接;所述三级配电箱内设置的第三传感探测器、接智能断路器均与第三通用采集器连接;所述第一通用采集器、第二通用采集器、第三通用采集器通过电力载波通信,并将采集到的传感器信号传送给智能主机,再上传至云平台。

Patent Agency Ranking