-
公开(公告)号:CN109978176A
公开(公告)日:2019-07-05
申请号:CN201910162280.9
申请日:2019-03-05
Applicant: 华南理工大学
IPC: G06N20/00
Abstract: 本发明公开了一种基于状态动态感知的多智能体合作学习方法,通过自主训练获得协调完成任务目标的多智能体控制系统,步骤如下:对各个智能体分别进行状态编码;对每个智能体构建一个动态感知层对其状态集合进行处理,将动态长度的状态集合映射成固定长度的特征;每个智能体的特征输入到各自带有通信单元的Q值网络,从网络输出中选取具有最大Q值的动作作为决策动作;各智能体将动作执行于环境,从环境中获取反馈奖励后,对所有智能体的动态感知层参数和Q值网络参数进行更新;使用上述框架训练多智能体,获得多智能体合作控制系统。本发明适用于要求动态数量游戏角色合作完成任务的游戏系统中,可作为游戏中多智能体的人工智能系统。
-
公开(公告)号:CN111246256B
公开(公告)日:2021-05-25
申请号:CN202010108302.6
申请日:2020-02-21
Applicant: 华南理工大学 , 广州梦辉机器人有限公司
IPC: H04N21/25 , H04N21/466 , G06F16/783 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于多模态视频内容和多任务学习的视频推荐方法,包括步骤:通过经预训练的模型提取短视频的视觉、音频、文本特征;采用注意力机制方法对视频多模态特征进行融合;采用深度游走方法学习用户社会关系的特征表示;提出基于注意力机制的深度神经网络模型学习多域特征表示;基于上述步骤生成的特征嵌入作为多任务模型的共享层,再分别通过多层感知机生成预测结果。本发明利用注意力机制结合用户特征对视频多模态特征进行融合,使得整个推荐更加丰富和具有个性化;同时,针对多域特征,考虑到交互特征在推荐学习中的重要性,提出一种基于注意力机制的深度神经网络模型丰富了高阶特征的学习,为用户提供更加精准的个性化视频推荐。
-
公开(公告)号:CN111246256A
公开(公告)日:2020-06-05
申请号:CN202010108302.6
申请日:2020-02-21
Applicant: 华南理工大学 , 广州梦辉机器人有限公司
IPC: H04N21/25 , H04N21/466 , G06F16/783 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于多模态视频内容和多任务学习的视频推荐方法,包括步骤:通过经预训练的模型提取短视频的视觉、音频、文本特征;采用注意力机制方法对视频多模态特征进行融合;采用深度游走方法学习用户社会关系的特征表示;提出基于注意力机制的深度神经网络模型学习多域特征表示;基于上述步骤生成的特征嵌入作为多任务模型的共享层,再分别通过多层感知机生成预测结果。本发明利用注意力机制结合用户特征对视频多模态特征进行融合,使得整个推荐更加丰富和具有个性化;同时,针对多域特征,考虑到交互特征在推荐学习中的重要性,提出一种基于注意力机制的深度神经网络模型丰富了高阶特征的学习,为用户提供更加精准的个性化视频推荐。
-
公开(公告)号:CN109978176B
公开(公告)日:2021-01-19
申请号:CN201910162280.9
申请日:2019-03-05
Applicant: 华南理工大学
IPC: G06N20/00
Abstract: 本发明公开了一种基于状态动态感知的多智能体合作学习方法,通过自主训练获得协调完成任务目标的多智能体控制系统,步骤如下:对各个智能体分别进行状态编码;对每个智能体构建一个动态感知层对其状态集合进行处理,将动态长度的状态集合映射成固定长度的特征;每个智能体的特征输入到各自带有通信单元的Q值网络,从网络输出中选取具有最大Q值的动作作为决策动作;各智能体将动作执行于环境,从环境中获取反馈奖励后,对所有智能体的动态感知层参数和Q值网络参数进行更新;使用上述框架训练多智能体,获得多智能体合作控制系统。本发明适用于要求动态数量游戏角色合作完成任务的游戏系统中,可作为游戏中多智能体的人工智能系统。
-
-
-