-
公开(公告)号:CN119623566A
公开(公告)日:2025-03-14
申请号:CN202411723421.7
申请日:2024-11-28
Applicant: 北京邮电大学
IPC: G06N3/092 , G06N3/0499 , G06F18/23
Abstract: 本发明公开了一种基于涌现混合专家模型的多任务强化学习方法,包括以下步骤:构建多任务强化学习网络,所述多任务强化学习网络包括若干个前馈神经网络,每个前馈神经网络前面连接一个路由网络;对每个前馈神经网络进行聚类分析,均分为若干个专家模块;基于策略梯度下降方法对每个路由网络进行训练,并更新对应专家模块的参数;选取多任务学习环境中的实验任务;对于每个实验任务,基于训练后的路由网络激活对应的专家模块进行解耦处理,完成多任务强化学习。本发明为多任务学习提供了高效稳定的优化策略,有效缓解了多任务学习中参数共享与任务之间相互干扰的难题。
-
公开(公告)号:CN119379652A
公开(公告)日:2025-01-28
申请号:CN202411511389.6
申请日:2024-10-28
Applicant: 北京邮电大学
IPC: G06T7/00 , G06N3/0442 , G06N3/042 , G06N3/08
Abstract: 本发明公开了一种基于视觉大模型的重量估计方法,包括:获取多模态重量数据集,构建视觉语言模型,基于所述多模态重量数据集对所述视觉语言模型进行两个阶段的训练;基于所述多模态重量数据集获得微调数据集;基于微调数据集、类别引导策略和参考校准策略对完成第二阶段训练的视觉语言模型获得重量估计模型;基于重量估计模型与待评估的物体图像进行重量估计。本发明通过类别引导策略和参考校准策略有效提升了视觉大模型的重量估计精度和重量推理能力。
-
公开(公告)号:CN118052272A
公开(公告)日:2024-05-17
申请号:CN202410189439.7
申请日:2024-02-20
Applicant: 北京邮电大学
IPC: G06N3/092 , G06N20/00 , G06N3/042 , G06F18/23 , G06F18/2413
Abstract: 本公开提供了一种多智能体强化学习方法及装置、电子设备、存储介质,属于超图表示学习技术领域,该方法包括:基于多智能体系统中各个智能体的观测信息生成多条超边。每条超边连接多个智能体,多条超边组成超图结构。超图结构为多智能体系统对应的通信结构。基于各个智能体的观测信息计算多智能体之间的消息权重。基于通信结构和消息权重生成多智能体系统对应的关联度。基于关联度对各个智能体的通信信息进行融合,得到每个智能体对应的融合通信信息。融合通信信息用于指导对应智能体的动作。本公开提供的多智能体强化学习方法及装置、电子设备、存储介质能对多个来自不同智能体的异构信息进行通信融合。
-
公开(公告)号:CN119357900B
公开(公告)日:2025-05-13
申请号:CN202411507526.9
申请日:2024-10-28
Applicant: 北京邮电大学
IPC: G06F18/25 , G06F18/10 , G06N3/042 , G06F18/213 , G06N3/0442 , G06N3/045 , G06N3/048
Abstract: 本发明公开了一种基于图神经网络的多模态阅读眼动表征方法,属于智能学习领域,该方法包括以下步骤:获取被试眼动数据,对所述被试眼动数据进行预处理得到预处理眼动数据;将所述预处理眼动数据转化为拓扑结构图;对所述拓扑结构图进行迭代与多维注意力处理得到节点特征和多维边特征;基于图注意力网络的多维建模方法对所述节点特征和所述多维边特征进行交互融合得到最终的阅读眼动表征输出。本发明提出了一种结合了门控神经网络和边特征图注意力网络的多模态眼动表征方法,能够有效融合眼动特征和文本刺激信息,实现对眼动追踪数据的高效表征。
-
公开(公告)号:CN118364250A
公开(公告)日:2024-07-19
申请号:CN202410499728.7
申请日:2024-04-24
Applicant: 北京邮电大学
IPC: G06F18/21 , G06F16/332
Abstract: 本公开提供了一种大语言模型评测方法及装置、电子设备、可读存储介质,属于智能对话技术领域,该方法包括:基于第一问题和多个第一追问问题依次对第一语言模型进行静态测试,得到第一语言模型针对于第一问题和多个第一追问问题的第一回复信息;基于第一问题和多个第二追问问题依次对第一语言模型进行动态测试,得到第一语言模型针对于第一问题和多个第二追问问题的第二回复信息;基于第一回复信息和第二回复信息确定第一语言模型的评测结果。本公开提出的静态测试和动态测试结合的评估方法能够更准确地评估模型的多轮对话能力,从而更好地反映模型在真实世界应用中的表现。
-
公开(公告)号:CN118038164A
公开(公告)日:2024-05-14
申请号:CN202410215888.4
申请日:2024-02-27
Applicant: 北京邮电大学
IPC: G06V10/764 , G06V10/82 , G06V40/18 , G06T3/4038 , G16H20/70
Abstract: 本公开提供了一种基于摄像装置的眼动视频放大的人格评估方法及系统,属于人格评估技术领域,该方法包括:将第一眼部视频输入至预训练放大网络中进行眼部动作放大,得到第二眼部视频;第一眼部视频为目标用户阅读材料时的眼部动作视频;提取第二眼部视频中的眼动特征,得到多张眼球随时间横向运动的特征图片;将特征图片输入至人格分类网络中,以得到目标用户的人格评估结果。本公开提供的基于摄像装置的眼动视频放大的人格评估方法及系统能够减少人格评估过程中的误差,使人格评估的方式更加简单、便捷,使人格评估的结果更加准确。
-
公开(公告)号:CN119888818A
公开(公告)日:2025-04-25
申请号:CN202411967118.1
申请日:2024-12-30
Applicant: 北京邮电大学
Abstract: 本公开提供了一种基于人体微动作的情绪识别方法及系统,属于微动作识别技术领域,该方法包括:基于识别目标的目标视频特征、目标骨架特征和目标幅度特征进行特征融合,得到识别目标的综合特征;基于综合特征得到识别目标的微动作特征;基于微动作特征进行分类,对识别目标进行情绪识别。本公开提供的基于人体微动作的情绪识别方法及系统能够提高微动作识别的准确性。
-
公开(公告)号:CN119831048A
公开(公告)日:2025-04-15
申请号:CN202411953175.4
申请日:2024-12-27
Applicant: 北京邮电大学
Abstract: 本公开提供了一种基于分布式训练框架的智能决策方法及系统,属于人工智能和分布式计算领域,分布式训练框架包括采样器、学习器和协调服务器。智能决策方法包括:从第一策略集中选择k个策略作为训练策略,确定每个训练策略对应的采样器和学习器。将每个训练策略分别与目标策略作为一组进行对抗采样得到第一采样数据。基于第一采样数据对学习器进行训练得到学习器的网络模型参数,对网络模型参数进行聚合得到全局模型参数。将全局模型参数发送至各个学习器和各个采样器进行迭代训练得到满足预设收敛条件的目标策略集。本公开通过将同步采样与分布式并行计算相结合,使智能决策适用于复杂的军事对抗博弈场景,显著提升了策略多样性的优化效果。
-
公开(公告)号:CN119357900A
公开(公告)日:2025-01-24
申请号:CN202411507526.9
申请日:2024-10-28
Applicant: 北京邮电大学
IPC: G06F18/25 , G06F18/10 , G06N3/042 , G06F18/213 , G06N3/0442 , G06N3/045 , G06N3/048
Abstract: 本发明公开了一种基于图神经网络的多模态阅读眼动表征方法,属于智能学习领域,该方法包括以下步骤:获取被试眼动数据,对所述被试眼动数据进行预处理得到预处理眼动数据;将所述预处理眼动数据转化为拓扑结构图;对所述拓扑结构图进行迭代与多维注意力处理得到节点特征和多维边特征;基于图注意力网络的多维建模方法对所述节点特征和所述多维边特征进行交互融合得到最终的阅读眼动表征输出。本发明提出了一种结合了门控神经网络和边特征图注意力网络的多模态眼动表征方法,能够有效融合眼动特征和文本刺激信息,实现对眼动追踪数据的高效表征。
-
公开(公告)号:CN118093823A
公开(公告)日:2024-05-28
申请号:CN202410287285.5
申请日:2024-03-13
Applicant: 北京邮电大学
IPC: G06F16/332 , G06F16/35 , G06F16/33 , G06N5/022 , G06F18/22
Abstract: 本公开提供了一种大语言模型自我提升方法及装置,属于深度学习技术领域,该方法包括:在第一知识库中检索与第一输入信息对应的反思样本,得到反思样本信息;将反思样本信息和第一输入信息输入至大语言模型中,得到目标反思信息;基于第一输入信息和目标反思信息对第一知识库进行更新;在第二知识库中检索与第二输入信息对应的改进样本,得到改进样本信息;将第二输入信息和改进样本信息输入至大语言模型中,得到目标改进信息;基于第二输入信息和目标改进信息对第二知识库进行更新。本公开根据大语言模型的反思信息和改进信息更新第一知识库和第二知识库,丰富了第一知识库和第二知识库的内容,提高了大语言模型的输出质量。
-
-
-
-
-
-
-
-
-