-
公开(公告)号:CN112507802B
公开(公告)日:2025-02-07
申请号:CN202011277401.3
申请日:2020-11-16
Applicant: 鹏城实验室
IPC: G06V40/20 , G06V20/40 , G06V10/762 , G06V10/774 , G06V10/82 , G06N3/045 , G06N3/088 , G06N5/04
Abstract: 本发明公开了一种基于深度时空推理网络的人体行为识别方法及电子设备,方法包括:将目标视频数据输入预先训练的深度时空推理网络模型中,确定深度时空推理网络模型中各个节点的类聚中心对应的第一激活次数;根据第一激活次数,构建第一行为特征树;利用频繁子树挖掘算法从第一行为特征树中获取第一频繁子树集;根据第一频繁子树集,对目标视频数据中的人体行为进行识别。本发明通过深度时空推理网络提取的人体动态行为时空特征和频繁子树反映的不同层次特征关系进行行为识别,既关注行为中人体部位的自身特征,也关注部位之间的关联与协调,从而提高网络中的特征利用率,提升了网络的识别率,实现对视频数据中人体行为快速准确地识别。
-
公开(公告)号:CN114265674B
公开(公告)日:2025-01-28
申请号:CN202111155540.3
申请日:2021-09-29
Applicant: 鹏城实验室
IPC: G06F9/48
Abstract: 本申请公开了一种时序逻辑约束下基于强化学习的任务规划方法及相关装置,方法包括将待规划任务转换为确定性有限自动机;基于确定性有限自动机及初始策略确定状态动作轨迹;将状态动作轨迹及各状态动作对的外部奖励输入前馈神经网络,通过前馈神经网络输出各状态动作对的内部奖励;基于各外部奖励以及各内部奖励确定初始策略的第一目标函数及第一返回值,并基于第一目标函数及第一返回值更新初始策略的策略参数以得到待规划任务对应的目标策略。本申请通过注意力机制捕捉任务的时序特性,从而执行端在稀疏奖励环境中能够快速学习带有时序关系的任务,从而能够在不同环境中解决LTL约束下的稀疏奖励问题,使得强化学习可以学习到最优策略。
-
公开(公告)号:CN114779631B
公开(公告)日:2024-07-23
申请号:CN202210278558.0
申请日:2022-03-21
Applicant: 鹏城实验室
IPC: G05B13/04
Abstract: 本发明涉及追捕技术分析技术领域,具体是涉及用于形成追捕策略的强化学习模型训练方法和训练装置。本发明逃跑者的控制量并不是确定性的,而是根据追捕者的信息给出的控制量,即逃跑者与追捕者进行了交互,这与实际追捕过程中逃跑者会根据追捕者的信息而做出相应的逃跑策略上的改变是一致的,追捕强化学习模型再根据改变之后的逃跑策略而给出追捕者的追捕策略。如此往复地对追捕强化学习模型进行训练,这样等到的已训练追捕强化学习模型应用到实际追逃过程中,即便逃跑者针对追捕者改变了逃跑策略,追捕者依然能够精准地实现对逃跑者的追捕,从而增加了已训练的追捕强化学习模型的鲁棒性。
-
公开(公告)号:CN114037131B
公开(公告)日:2024-05-14
申请号:CN202111270090.2
申请日:2021-10-29
Applicant: 鹏城实验室
IPC: G06Q10/047 , G06Q10/0639 , G06Q50/40
Abstract: 本发明公开了一种空地协同任务路线规划方法、装置、终端及存储介质,方法包括:根据无人机的续航能力、各个待访问的目标点位置和各个车辆停靠点的位置生成至少一个无人机初始路线;采用第一邻域搜索算法对各个所述无人机初始路线中的目标点访问顺序进行优化,得到至少一个无人机中间路线;采用第二邻域搜索算法对各个所述无人机中间路线中的停靠点访问顺序进行优化,将优化过程中的最优解作为目标路线。本发明可以实现在空地协同监测任务中快速高效地进行路线规划。
-
公开(公告)号:CN117521018A
公开(公告)日:2024-02-06
申请号:CN202410024460.1
申请日:2024-01-08
Applicant: 鹏城实验室
Abstract: 本发明属于融合估计技术领域,公开了一种基于扩展观测的融合估计方法、装置、设备及存储介质。该方法包括:根据状态方程确定初始状态估计量的预测状态估计量;根据所述预测状态估计量和观测方程,确定预测观测值;确定所述预测观测值的多个伪观测值;根据所述预测观测值以及所述多个伪观测值确定多个扩展观测;根据所述多个扩展观测对所述预测状态估计量进行更新,得到多个更新状态量和多个协方差矩阵;融合所述多个更新状态量之后得到融合估计量,以及融合所述多个协方差矩阵得到融合协方差矩阵;根据所述融合估计量以及所述融合协方差矩阵确定融合估计结果,并将所述融合估计结果用于雷达追踪。能够保证雷达追踪效果。
-
公开(公告)号:CN114255241B
公开(公告)日:2023-10-20
申请号:CN202111352625.0
申请日:2021-11-16
Applicant: 鹏城实验室
IPC: G01C21/20
Abstract: 本发明涉及机器人路径规划技术领域,具体是涉及用于路径规划的区域分割方法、装置、设备及存储介质。对待分割区域应用维诺图分割法进行分割,得到维诺分割图;依据维诺分割图,得到维诺分割图所包含的备选边,备选边的两个顶点均位于任务区域内,任务区域为待分割区域中终端执行任务的区域;依据备选边,得到先验分界边;依据先验分界边和维诺分割图,得到目标分割区域。本发明首先通过备选边将待分割任务区域中的非任务区域去除,后续再依据先验分界边对区域进行分割,使得终端在分割之后所得到的路径上进行移动时能够减小转弯次数,从而提高终端执行任务的效率。
-
公开(公告)号:CN113066103B
公开(公告)日:2023-02-21
申请号:CN202110290414.2
申请日:2021-03-18
Applicant: 鹏城实验室
Abstract: 本发明公开了一种相机帧间运动确定方法,方法包括:检索第二视频帧内的目标特征点对应的地图路标点,根据第二视频帧和第一视频帧之间的相机帧间运动获取地图路标点在第三视频帧中的预估特征像素位置;构建第三视频帧的第二图像金字塔和第二视频帧的第一图像金字塔,根据预估特征像素位置获取地图路标点在第二图像金字塔的顶层预估特征像素位置,以顶层预估特征像素位置为顶层的搜索起点获取第二图像金字塔各层的最优光流位移量;根据最优光流位移量获取地图路标点在第三视频帧中的目标特征像素位置;根据目标特征像素位置获取第三视频帧和第二视频帧之间的相机帧间运动。本发明能够得到更加稳定精准的相机帧间运动。
-
公开(公告)号:CN114859921A
公开(公告)日:2022-08-05
申请号:CN202210512753.5
申请日:2022-05-12
Applicant: 鹏城实验室
IPC: G05D1/02
Abstract: 本发明公开了一种基于强化学习的自动驾驶优化方法及相关设备,所述方法包括:在虚拟仿真环境下,采集离线训练数据和相应的真值;构建基于注意力机制的密集交通环境预测模型;利用所述基于注意力机制的密集交通环境预测模型对所述离线训练数据进行训练,得到初步的环境预测模型;将所述初步的环境预测模型代入到基于值的环境模型强化学习算法或者基于策略的环境模型强化学习算法中,在相应的虚拟仿真平台进行强化学习训练,获得强化学习算法模型,所述强化学习算法模型用于为智能体通过密集交通环境提供最优策略。本发明提高了密集交通模型的预测准确率和采样效率,提高了车辆通过密集交通环境的成功率,提高了自动驾驶的安全性。
-
公开(公告)号:CN118707962B
公开(公告)日:2024-11-01
申请号:CN202411203645.5
申请日:2024-08-30
Applicant: 鹏城实验室
Abstract: 本申请公开了一种智能体网络的编队控制方法、装置、设备及存储介质,涉及编队控制技术领域,本申请包括:分别确定智能体网络中智能体的状态信息和各智能体的邻居智能体,根据邻居智能体的邻居状态信息生成索引集,基于索引集得到编队状态,根据邻居智能体的局部坐标系对编队状态对应的智能体进行统一变换,得到变换智能体,基于变换智能体确定追逐与逃避微图;根据追逐与逃避微图确定捕捉盆和生存核,基于捕捉盆和生存核对图神经网络进行初始化,得到初始化图神经网络;基于捕捉盆和生存核确定初始化图神经网络的权重域,基于权重域对权重进行约束,确定第一智能体的目标编队控制信息,基于目标编队信息进行编队控制,实现定性定量的编队控制。
-
公开(公告)号:CN118707962A
公开(公告)日:2024-09-27
申请号:CN202411203645.5
申请日:2024-08-30
Applicant: 鹏城实验室
Abstract: 本申请公开了一种智能体网络的编队控制方法、装置、设备及存储介质,涉及编队控制技术领域,本申请包括:分别确定智能体网络中智能体的状态信息和各智能体的邻居智能体,根据邻居智能体的邻居状态信息生成索引集,基于索引集得到编队状态,根据邻居智能体的局部坐标系对编队状态对应的智能体进行统一变换,得到变换智能体,基于变换智能体确定追逐与逃避微图;根据追逐与逃避微图确定捕捉盆和生存核,基于捕捉盆和生存核对图神经网络进行初始化,得到初始化图神经网络;基于捕捉盆和生存核确定初始化图神经网络的权重域,基于权重域对权重进行约束,确定第一智能体的目标编队控制信息,基于目标编队信息进行编队控制,实现定性定量的编队控制。
-
-
-
-
-
-
-
-
-