保持儿童良好学习状态的人格化伴学方法及系统

    公开(公告)号:CN117935630A

    公开(公告)日:2024-04-26

    申请号:CN202311858958.X

    申请日:2023-12-30

    Applicant: 浙江大学

    Abstract: 本发明公开了一种保持儿童良好学习状态的人格化伴学方法,包括以下步骤:初始化大语言交互模型以及配套的专属语料库;获取交互对象与所述大语言交互模型的交互数据;通过预构建的状态评估模型对所述文本数据和视频数据进行特征提取,以输出对交互对象的评估结果;构建强化学习模型,并以每次的评估结果作为优化目标进行优化,以输出优化结果;通过所述优化结果对所述语料库进行数据筛选,以动态构建用于交互对象后续的专属语料库并引入所述大语言交互模型。本发明还提供了一种人格化伴学系统。本发明提供的方法能通过人格化陪伴的方式儿童学习过程中进行教学引导,以此增强儿童对学习内容的理解,锻炼他们的表达能力和逻辑思维能力。

    一种环境交互感知关联的物体消除方法和装置

    公开(公告)号:CN119152075B

    公开(公告)日:2025-02-14

    申请号:CN202411600352.0

    申请日:2024-11-11

    Applicant: 浙江大学

    Abstract: 本发明公开了一种环境交互感知关联的物体消除方法和装置,本发明从而0.4T~0.6T次迭代的任意一次迭代过程中提取的多个自注意力特征A为能够获得较为准确反应物体及其影响的自注意力特征,并基于获得的物体掩膜将物体对应的自注意力特征A进行提取,从而将物体和背景分离,且保留更多的环境信息,并对均值化的自注意力特征A进行多尺度融合和阈值化处理得到物体及其影响的掩膜。本发明基于物体及其影响的掩膜对Unet模块的自注意力层进行掩膜抑制操作,使得通过抑制Unet模块得到的第二过程隐向量中物体及其影响部分被消除,从而通过多次采样得到的最终噪声隐编码中物体及其影响部分被消除。

    一种环境交互感知关联的物体消除方法和装置

    公开(公告)号:CN119152075A

    公开(公告)日:2024-12-17

    申请号:CN202411600352.0

    申请日:2024-11-11

    Applicant: 浙江大学

    Abstract: 本发明公开了一种环境交互感知关联的物体消除方法和装置,本发明从而0.4T~0.6T次迭代的任意一次迭代过程中提取的多个自注意力特征A为能够获得较为准确反应物体及其影响的自注意力特征,并基于获得的物体掩膜将物体对应的自注意力特征A进行提取,从而将物体和背景分离,且保留更多的环境信息,并对均值化的自注意力特征A进行多尺度融合和阈值化处理得到物体及其影响的掩膜。本发明基于物体及其影响的掩膜对Unet模块的自注意力层进行掩膜抑制操作,使得通过抑制Unet模块得到的第二过程隐向量中物体及其影响部分被消除,从而通过多次采样得到的最终噪声隐编码中物体及其影响部分被消除。

    一种个性化的音乐动态情感识别方法及其装置

    公开(公告)号:CN119128692B

    公开(公告)日:2025-04-18

    申请号:CN202411600353.5

    申请日:2024-11-11

    Applicant: 浙江大学

    Abstract: 本发明公开了一种个性化的动态音乐情感识别方法及其装置,本发明通过元任务集训练得到的音乐情感识别元模型能够基于用户的情感需要构建出与用户个性化情感匹配的个性化情感识别模型,通过个性化情感识别模型对音乐音频进行情感识别得到符合用户情感倾向的预测情感识别序列。本发明通过将音乐音频进行切割分段,使得音乐情感识别元模型能够识别出音乐音频各片段的Valence值和Arousal值,从而得到音乐音频对应的Valence曲线和Arousal曲线,基于Valence曲线和Arousal曲线实现情感的准确识别。

    一种个性化的音乐动态情感识别方法及其装置

    公开(公告)号:CN119128692A

    公开(公告)日:2024-12-13

    申请号:CN202411600353.5

    申请日:2024-11-11

    Applicant: 浙江大学

    Abstract: 本发明公开了一种个性化的动态音乐情感识别方法及其装置,本发明通过元任务集训练得到的音乐情感识别元模型能够基于用户的情感需要构建出与用户个性化情感匹配的个性化情感识别模型,通过个性化情感识别模型对音乐音频进行情感识别得到符合用户情感倾向的预测情感识别序列。本发明通过将音乐音频进行切割分段,使得音乐情感识别元模型能够识别出音乐音频各片段的Valence值和Arousal值,从而得到音乐音频对应的Valence曲线和Arousal曲线,基于Valence曲线和Arousal曲线实现情感的准确识别。

    一种家庭同胞互动过程中的协作状态分析方法及其系统

    公开(公告)号:CN117636219B

    公开(公告)日:2024-06-14

    申请号:CN202311646320.X

    申请日:2023-12-04

    Applicant: 浙江大学

    Abstract: 本发明公开了一种家庭同胞互动过程中的协作状态分析方法,本发明通过基于关键点特征的位置变化信息、位置变化速度信息和位置变化加速度信息将视频片段的每个帧的关键点特征进行降维结合得到关键点特征在视频片段内的位置变化,位置变化的速度和加速度信息,从而能够实时识别两个孩子的互动协作状态。基于识别的两个孩子的互动协作状态通过训练好的XGBoost分类模型得到多维度视频片段类别编码序列,然后通过大语言模型得到家庭同胞互动过程中的协作状态分析报告。本发明还公开了一种家庭同胞互动过程中的协作状态分析系统。

    一种家庭同胞互动过程中的协作状态分析方法及其系统

    公开(公告)号:CN117636219A

    公开(公告)日:2024-03-01

    申请号:CN202311646320.X

    申请日:2023-12-04

    Applicant: 浙江大学

    Abstract: 本发明公开了一种家庭同胞互动过程中的协作状态分析方法,本发明通过基于关键点特征的位置变化信息、位置变化速度信息和位置变化加速度信息将视频片段的每个帧的关键点特征进行降维结合得到关键点特征在视频片段内的位置变化,位置变化的速度和加速度信息,从而能够实时识别两个孩子的互动协作状态。基于识别的两个孩子的互动协作状态通过训练好的XGBoost分类模型得到多维度视频片段类别编码序列,然后通过大语言模型得到家庭同胞互动过程中的协作状态分析报告。本发明还公开了一种家庭同胞互动过程中的协作状态分析系统。

Patent Agency Ranking