-
公开(公告)号:CN115271568A
公开(公告)日:2022-11-01
申请号:CN202211206939.4
申请日:2022-09-30
Applicant: 暨南大学
Abstract: 本发明涉及基于强化学习‑群体进化混合算法的双边拆解线设计方法,所述方法包括以下步骤:S1、定义与、或优先关系;S2、建立以优化产线布置、经济效益和安全环保三个方面共六个指标的数学模型;S3、初始化种群,建立外部档案储存Pareto较优解,建立R值表记录算子的改进效果,建立Q值表储存Q值;S4、采用群优化算法迭代更新外部档案,同时记录每代优化算子的对于目标的改进值;S5、重复步骤S3‑S4,进行多次强化学习获得稳定的R值表和Q值表;S6、根据Q值表终表,采用群优化算法迭代更新外部档案,获得稳定解。本发明采用了基于强化学习的群体进化算法解决拆卸任务之间复杂的约束类型,能高效获得稳定的最优解并保证解的多样性。
-
公开(公告)号:CN117151425B
公开(公告)日:2024-04-26
申请号:CN202311364387.4
申请日:2023-10-20
Applicant: 暨南大学
IPC: G06Q10/0631 , G06N20/00 , G06Q10/30 , G06Q50/04 , G06Q50/26
Abstract: 本发明提供一种基于RQL算法的选择拆卸规划方法及系统,获取待拆卸产品的数据集,结合Q‑learning算法和Rollout策略迭代采样待拆卸产品的数据集,得到待拆卸产品的优选拆卸序列,本申请的RQL(Rollout‑Q‑learning)算法是基于Rollout策略优化了Q‑learning算法在迭代过程中的动作选择,在每个决策阶段使用Rollout策略对每个可行动作进行有限步数的模拟采样之后,选择在有限步数内估计价值最大的可行动作,从而使Q‑learning算法具备更强的全局搜索能力,最终得到优选拆卸序列,相对于传统的Q‑learning算法,RQL(Rollout‑Q‑learning)算法在拆卸序列规划上有很大的性能提升,同时能够提高拆卸流程的回收效益,尽可能减少EoL产品对环境造成的危害。
-
-
公开(公告)号:CN115271568B
公开(公告)日:2023-01-20
申请号:CN202211206939.4
申请日:2022-09-30
Applicant: 暨南大学
Abstract: 本发明涉及基于强化学习‑群体进化混合算法的双边拆解线设计方法,所述方法包括以下步骤:S1、定义与、或优先关系;S2、建立以优化产线布置、经济效益和安全环保三个方面共六个指标的数学模型;S3、初始化种群,建立外部档案储存Pareto较优解,建立R值表记录算子的改进效果,建立Q值表储存Q值;S4、采用群优化算法迭代更新外部档案,同时记录每代优化算子的对于目标的改进值;S5、重复步骤S3‑S4,进行多次强化学习获得稳定的R值表和Q值表;S6、根据Q值表终表,采用群优化算法迭代更新外部档案,获得稳定解。本发明采用了基于强化学习的群体进化算法解决拆卸任务之间复杂的约束类型,能高效获得稳定的最优解并保证解的多样性。
-
公开(公告)号:CN117151425A
公开(公告)日:2023-12-01
申请号:CN202311364387.4
申请日:2023-10-20
Applicant: 暨南大学
IPC: G06Q10/0631 , G06N20/00 , G06Q10/30 , G06Q50/04 , G06Q50/26
Abstract: 本发明提供一种基于RQL算法的选择拆卸规划方法及系统,获取待拆卸产品的数据集,结合Q‑learning算法和Rollout策略迭代采样待拆卸产品的数据集,得到待拆卸产品的优选拆卸序列,本申请的RQL(Rollout‑Q‑learning)算法是基于Rollout策略优化了Q‑learning算法在迭代过程中的动作选择,在每个决策阶段使用Rollout策略对每个可行动作进行有限步数的模拟采样之后,选择在有限步数内估计价值最大的可行动作,从而使Q‑learning算法具备更强的全局搜索能力,最终得到优选拆卸序列,相对于传统的Q‑learning算法,RQL(Rollout‑Q‑learning)算法在拆卸序列规划上有很大的性能提升,同时能够提高拆卸流程的回收效益,尽可能减少EoL产品对环境造成的危害。
-
-
-
-