-
公开(公告)号:CN116795136B
公开(公告)日:2025-03-14
申请号:CN202310757678.3
申请日:2023-06-26
Applicant: 杭州电子科技大学
IPC: G05D1/46 , G05D109/28
Abstract: 本发明公开了一种兼顾可观测性和反拦截精度的主动防御协同突防制导方法。本发明首先建立主动防御非线性运动学模型;构建了兼顾目标可探测性和突防制导精度的滑模状态变量和滑模面;通过引入双幂次趋近律和带状态反馈的指数型趋近律,设计了单向协同滑模制导律;构建加速度目标函数,将双向协同问题转化为最小化目标弹‑防御弹的加速度优化问题,考虑削弱由来袭拦截弹未知机动引起的滑模抖振问题,设计了一个扩张状态观测器,对来袭拦截弹的加速度信息进行实时估计,削弱滑模抖振现象。
-
公开(公告)号:CN116661475B
公开(公告)日:2025-02-14
申请号:CN202310755101.9
申请日:2023-06-25
Applicant: 杭州电子科技大学
IPC: G05D1/46 , G05D1/65 , G05D1/644 , G05D109/20
Abstract: 本发明公开了一种基于改进DDPG的近距空战机动决策方法,首先建立了无人机运动学模型,与一对一的近距空战模拟对抗场景及胜负裁决模型。将空战决策过程转化为马尔可夫决策过程,设计无人机的状态‑动作空间,并依据胜负裁决模型设计基于目标视线角、相对速度的奖励函数模型,通过添加衰减的噪声平衡智能体对空间的探索和对经验的利用。将依据空战状态做出的每一步决策产生的四元组存到记忆库,从中抽样训练策略网络,按比例更新Actor网络和Critic网络,提高空战训练过程的稳定性和决策效率。与基于矩阵对策的敌方无人机博弈对抗训练,能够生成满足期望需求的机动决策指令,实现先敌占位、先敌攻击和先敌规避的空战优势。
-
公开(公告)号:CN116661475A
公开(公告)日:2023-08-29
申请号:CN202310755101.9
申请日:2023-06-25
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于改进DDPG的近距空战机动决策方法,首先建立了无人机运动学模型,与一对一的近距空战模拟对抗场景及胜负裁决模型。将空战决策过程转化为马尔可夫决策过程,设计无人机的状态‑动作空间,并依据胜负裁决模型设计基于目标视线角、相对速度的奖励函数模型,通过添加衰减的噪声平衡智能体对空间的探索和对经验的利用。将依据空战状态做出的每一步决策产生的四元组存到记忆库,从中抽样训练策略网络,按比例更新Actor网络和Critic网络,提高空战训练过程的稳定性和决策效率。与基于矩阵对策的敌方无人机博弈对抗训练,能够生成满足期望需求的机动决策指令,实现先敌占位、先敌攻击和先敌规避的空战优势。
-
公开(公告)号:CN116795136A
公开(公告)日:2023-09-22
申请号:CN202310757678.3
申请日:2023-06-26
Applicant: 杭州电子科技大学
IPC: G05D1/10
Abstract: 本发明公开了一种兼顾可观测性和反拦截精度的主动防御协同突防制导方法。本发明首先建立主动防御非线性运动学模型;构建了兼顾目标可探测性和突防制导精度的滑模状态变量和滑模面;通过引入双幂次趋近律和带状态反馈的指数型趋近律,设计了单向协同滑模制导律;构建加速度目标函数,将双向协同问题转化为最小化目标弹‑防御弹的加速度优化问题,考虑削弱由来袭拦截弹未知机动引起的滑模抖振问题,设计了一个扩张状态观测器,对来袭拦截弹的加速度信息进行实时估计,削弱滑模抖振现象。
-
公开(公告)号:CN115018166A
公开(公告)日:2022-09-06
申请号:CN202210656653.X
申请日:2022-06-10
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于启发式强化学习的反导防御系统火力分配方法。本发明首先将WTA问题转化为一个多步决策问题,在深度Q网络框架下建立火力分配方法;构建火力单元状态集、目标库和经验池,引入了公平采样策略,确保等概率学习各目标分配经验;引入了基于SA‑PSO的启发式火力分配优化方法对ε‑greedy机制进行改进,通过火力分配优化方法进行单步决策从而获得较优的火力分配经验,提高DQN模型训练效率和决策能力;设计了兼顾快速收敛和全局收益的奖励函数,引导DQN训练过程更加注重全局的整体毁伤概率收益。本发明通过模拟火力分配环境训练DQN模型,利用该模型快速处理中大规模WTA问题,兼具决策的快速性和准确性。
-
-
-
-