-
公开(公告)号:CN115009291A
公开(公告)日:2022-09-06
申请号:CN202210562890.X
申请日:2022-05-23
Applicant: 暨南大学
Abstract: 本发明公开了一种基于网络演化重放缓冲区的自动驾驶辅助决策方法及系统,该方法步骤包括:使用强化学习智能体对基于驾驶时态序列数据的环境进行交互,根据相同取值的状态或者动作的数据作为枢纽转化成包含状态节点集合和动作节点集合的基于图结构的重放缓冲区;再基于该重放缓冲区进行深度遍历搜索得到子图,将子图输入到图自动编码器中进行特征提取,获取包含邻居信息的新的状态节点表示。根据新的状态节点表示进行学习,最终输出自动驾驶辅助执行策略,调整汽车驾驶状态。本发明利用图神经网络的节点表示能力,获取包含邻居信息的状态节点表示,一方面解决了样本相关性的问题,另一方面仍然保留邻居信息,能够更加快速解决决策问题。
-
公开(公告)号:CN114692005A
公开(公告)日:2022-07-01
申请号:CN202210604217.8
申请日:2022-05-31
Applicant: 暨南大学
IPC: G06F16/9535 , G06N3/04 , G06N3/08 , G06Q30/02 , G06Q30/06
Abstract: 本发明公开了一种面向稀疏超短序列的个性化推荐方法、系统、介质和设备,该方法包括下述步骤:构建稀疏超短用户行为序列,构建用户与商品的关系图,采用图嵌入方法对关系图中的节点进行嵌入表示学习;基于稀疏超短用户行为数据构造专家数据库,对专家数据库的购买策略进行学习,并遵循购买策略进行稀疏超短用户行为序列扩充;基于商品预嵌入表示以及扩充后的稀疏超短用户行为序列,采用自注意力模型完成商品嵌入表示的信息增强,并根据最终商品嵌入表示与稀疏超短用户行为序列的用户行为数据得到用户嵌入表示,进行个性化推荐。本发明能提高输入自注意力模型数据质量,实现自注意力模型在面向稀疏超短数据推荐场景中的应用。
-
公开(公告)号:CN108614865B
公开(公告)日:2020-12-11
申请号:CN201810307140.1
申请日:2018-04-08
Applicant: 暨南大学
IPC: G06F16/9535 , G06F16/901 , G06Q50/20
Abstract: 本发明公开了一种基于深度强化学习的个性化学习推荐方法,包括以下步骤:定义知识点及题目的难度属性,根据知识点之间的关系构建知识点网络图;根据知识点之间的关系确定知识点下题目之间的关系,构建题目网络图;根据用户行为数据,在题目网络图中得到针对指定用户当前状态下的子图,作为学习边界;进而使用深度强化学习算法,利用用户历史记录建模,训练得到在用户当前状态下的子图中如何选取割集策略。本发明方法可智能化地为用户推荐最佳题目,节省用户学习时间,使其学习效率提高,学习体验提升。
-
公开(公告)号:CN108647788A
公开(公告)日:2018-10-12
申请号:CN201810456838.X
申请日:2018-05-14
Applicant: 暨南大学
Abstract: 本发明公开了一种联想式知识库的自动改进方法,步骤为:通过对训练者在训练过程中的行为数据建模,使用统计方法找出知识点之间的拓扑结构以及关联强度,并将结果以添加、更新、删除三种操作作用于联想式知识库网络,实现知识点之间的“联想”。并且类似人类记忆,通过不断持续获得的增量数据,持续以上述操作改进知识库网络,从而实现知识库的不断进化。本发明的联想式知识库在符合学习者学习路线的前提下,还可以根据学习者学习过程中的数据动态调节知识库自身的结构,提高学习效率。
-
公开(公告)号:CN108647788B
公开(公告)日:2021-03-19
申请号:CN201810456838.X
申请日:2018-05-14
Applicant: 暨南大学
Abstract: 本发明公开了一种联想式知识库的自动改进方法,步骤为:通过对训练者在训练过程中的行为数据建模,使用统计方法找出知识点之间的拓扑结构以及关联强度,并将结果以添加、更新、删除三种操作作用于联想式知识库网络,实现知识点之间的“联想”。并且类似人类记忆,通过不断持续获得的增量数据,持续以上述操作改进知识库网络,从而实现知识库的不断进化。本发明的联想式知识库在符合学习者学习路线的前提下,还可以根据学习者学习过程中的数据动态调节知识库自身的结构,提高学习效率。
-
公开(公告)号:CN111144554A
公开(公告)日:2020-05-12
申请号:CN201911405955.4
申请日:2019-12-31
Applicant: 暨南大学
Abstract: 本发明公开了一种基于模块分解的智能响应方法、装置、介质、设备。方法包括步骤:根据企业的业务逻辑和决策逻辑,对信息系统进行模块分解,确定经验型人工决策模块;从历史数据中提取业务数据,根据业务数据对经验型人工决策模块的输入和输出数据进行建模,对所提取的业务数据进行数据转换,转换后的数据作为模型的训练集;将输出作为多分类标签,通过深度神经网络学习的方式来学习训练集的案例数据,不断进行优化与改进,直到收敛;将训练完成的深度神经网络嵌入原信息系统的经验型人工决策模块中,在新的输入下,智能判别分类问题,并作出决策建议。本发明使得神经网络可以替代人工决策,实现信息系统的柔性化,提高业务响应效率。
-
公开(公告)号:CN111144554B
公开(公告)日:2023-09-19
申请号:CN201911405955.4
申请日:2019-12-31
Applicant: 暨南大学
IPC: G06N3/0464 , G06N3/08 , G06Q10/0637
Abstract: 本发明公开了一种基于模块分解的智能响应方法、装置、介质、设备。方法包括步骤:根据企业的业务逻辑和决策逻辑,对信息系统进行模块分解,确定经验型人工决策模块;从历史数据中提取业务数据,根据业务数据对经验型人工决策模块的输入和输出数据进行建模,对所提取的业务数据进行数据转换,转换后的数据作为模型的训练集;将输出作为多分类标签,通过深度神经网络学习的方式来学习训练集的案例数据,不断进行优化与改进,直到收敛;将训练完成的深度神经网络嵌入原信息系统的经验型人工决策模块中,在新的输入下,智能判别分类问题,并作出决策建议。本发明使得神经网络可以替代人工决策,实现信息系统的柔性化,提高业务响应效率。
-
公开(公告)号:CN114692005B
公开(公告)日:2022-08-12
申请号:CN202210604217.8
申请日:2022-05-31
Applicant: 暨南大学
IPC: G06F16/9535 , G06N3/04 , G06N3/08 , G06Q30/02 , G06Q30/06
Abstract: 本发明公开了一种面向稀疏超短序列的个性化推荐方法、系统、介质和设备,该方法包括下述步骤:构建稀疏超短用户行为序列,构建用户与商品的关系图,采用图嵌入方法对关系图中的节点进行嵌入表示学习;基于稀疏超短用户行为数据构造专家数据库,对专家数据库的购买策略进行学习,并遵循购买策略进行稀疏超短用户行为序列扩充;基于商品预嵌入表示以及扩充后的稀疏超短用户行为序列,采用自注意力模型完成商品嵌入表示的信息增强,并根据最终商品嵌入表示与稀疏超短用户行为序列的用户行为数据得到用户嵌入表示,进行个性化推荐。本发明能提高输入自注意力模型数据质量,实现自注意力模型在面向稀疏超短数据推荐场景中的应用。
-
公开(公告)号:CN110458429A
公开(公告)日:2019-11-15
申请号:CN201910689985.6
申请日:2019-07-29
Applicant: 暨南大学
Abstract: 本发明公开了一种针对具有一定地理位置特征的网点的智能拜访任务分配和人员调度方法、系统,包括以下步骤:从企业信息系统决策模块的基础数据和实时数据中,对物理商业网点和业务员分别提取特征,对业务员拜访网点的历史数据建模;用二分图表示业务员和网点之间的连接从而形成拜访计划网络图;根据业务员所处环境信息,规划最优拜访路线;使用强化学习方法,根据业务员执行某一动作后产生的预设的奖赏或惩罚,评估分配策略获取的收益,并反馈给深度神经网络模型,反复更新学习参数,确定最优任务匹配策略;实际拜访过程中,采用强化学习方法进行计算,将任务执行策略优化方法以及拜访路线优化方法同时不断迭代,综合得出全局最优的拜访方式。
-
公开(公告)号:CN112287599B
公开(公告)日:2023-08-04
申请号:CN202011071114.7
申请日:2020-10-09
Applicant: 暨南大学
IPC: G06F30/27 , G06N3/045 , G06N3/092 , G06F119/12
Abstract: 本发明公开了一种基于多步新奇度的时态序列迭代预测算法、介质和设备,算法包括先基于时态序列数据建立内、外部模型,初始化多维经验矩阵;外部模型抽样训练;外部模型在每一次交互中,从时态序列数据获取当前状态和奖励,并输出当前状态、行为和预测的执行行为后的状态;内部模型对外部模型预测的状态进行多步预测,预测信息存储到多维经验矩阵中,不断迭代更新内部模型;定义新奇度,在外部模型的每一次迭代,从多维经验矩阵中抽出对应元素,并比较每个元素和外部模型预测的状态来计算新奇度;基于新奇度不断迭代更新内、外部模型,多维经验矩阵也根据时间节点不断更新。本发明解决强化学习中稀疏奖励的训练障碍,可达到模型更快收敛的效果。
-
-
-
-
-
-
-
-
-