-
公开(公告)号:CN115009291B
公开(公告)日:2023-05-23
申请号:CN202210562890.X
申请日:2022-05-23
Applicant: 暨南大学
IPC: B60W50/00 , B60W60/00 , G06N3/042 , G06N3/092 , G06N3/0455
Abstract: 本发明公开了一种基于网络演化重放缓冲区的自动驾驶辅助决策方法及系统,该方法步骤包括:使用强化学习智能体对基于驾驶时态序列数据的环境进行交互,根据相同取值的状态或者动作的数据作为枢纽转化成包含状态节点集合和动作节点集合的基于图结构的重放缓冲区;再基于该重放缓冲区进行深度遍历搜索得到子图,将子图输入到图自动编码器中进行特征提取,获取包含邻居信息的新的状态节点表示。根据新的状态节点表示进行学习,最终输出自动驾驶辅助执行策略,调整汽车驾驶状态。本发明利用图神经网络的节点表示能力,获取包含邻居信息的状态节点表示,一方面解决了样本相关性的问题,另一方面仍然保留邻居信息,能够更加快速解决决策问题。
-
公开(公告)号:CN112287599A
公开(公告)日:2021-01-29
申请号:CN202011071114.7
申请日:2020-10-09
Applicant: 暨南大学
IPC: G06F30/27 , G06N3/04 , G06N20/00 , G06F119/12
Abstract: 本发明公开了一种基于多步新奇度的时态序列迭代预测算法、介质和设备,算法包括先基于时态序列数据建立内、外部模型,初始化多维经验矩阵;外部模型抽样训练;外部模型在每一次交互中,从时态序列数据获取当前状态和奖励,并输出当前状态、行为和预测的执行行为后的状态;内部模型对外部模型预测的状态进行多步预测,预测信息存储到多维经验矩阵中,不断迭代更新内部模型;定义新奇度,在外部模型的每一次迭代,从多维经验矩阵中抽出对应元素,并比较每个元素和外部模型预测的状态来计算新奇度;基于新奇度不断迭代更新内、外部模型,多维经验矩阵也根据时间节点不断更新。本发明解决强化学习中稀疏奖励的训练障碍,可达到模型更快收敛的效果。
-
公开(公告)号:CN108614865A
公开(公告)日:2018-10-02
申请号:CN201810307140.1
申请日:2018-04-08
Applicant: 暨南大学
CPC classification number: G06Q50/205
Abstract: 本发明公开了一种基于深度强化学习的个性化学习推荐方法,包括以下步骤:定义知识点及题目的难度属性,根据知识点之间的关系构建知识点网络图;根据知识点之间的关系确定知识点下题目之间的关系,构建题目网络图;根据用户行为数据,在题目网络图中得到针对指定用户当前状态下的子图,作为学习边界;进而使用深度强化学习算法,利用用户历史记录建模,训练得到在用户当前状态下的子图中如何选取割集策略。本发明方法可智能化地为用户推荐最佳题目,节省用户学习时间,使其学习效率提高,学习体验提升。
-
-