一种用于在线视频学习的基于眼动信号的情感识别方法

    公开(公告)号:CN113065595A

    公开(公告)日:2021-07-02

    申请号:CN202110357407.X

    申请日:2021-04-01

    Abstract: 本发明公开了一种用于在线视频学习的基于眼动信号的情感识别方法。包括一下步骤:S1、自建眼动数据库,以学习视频作为刺激材料,获取眼动数据。并对数据标注、预处理、数据集设置、数据类型转换、数据扩增和数据集划分等操作。S2、设计一个基于卷积神经网路的子卷积块;S3、将网络设计成一个具有五个大层的网络结构;S4、对训练过程可视化并通过评价指标对所提出的网络结构评价,以检测所提出的网络的优劣。最后使用无监督学习和标记数据,使用于训练的数据更加准确。

    一种在线学习场景下基于皮肤电信号的情感识别方法

    公开(公告)号:CN116327163A

    公开(公告)日:2023-06-27

    申请号:CN202310218204.1

    申请日:2023-03-08

    Abstract: 本发明公开了一种在线学习场景下基于皮肤电信号的情感识别方法,包括4个步骤:S1数据采集模块:设计了一个模拟在线学习场景的数据采集实验来获取皮肤电信号的相关数据;S2皮肤电信号预处理模块:对采集到的皮肤电信号进行预处理;S3皮肤电特征提取与融合模块:将预处理后的皮肤电信号进行手工特征提取得到浅层特征,随后将浅层特征输入GRU中提取信号的深层特征,最后将深层特征与浅层特征进行特征层融合并降维得到皮肤电信号的融合特征;S4情感识别模块:将融合特征应用于随机森林算法中对高兴、无聊、困惑和感兴趣四种情感进行识别并通过相关指标对识别效果进行判定。本发明能提高在线学习场景下情感识别的精度,为未来研究提供更多参考价值。

    一种面向在线视频学习的基于细粒度特征与TCN模型的情感识别方法

    公开(公告)号:CN114913450A

    公开(公告)日:2022-08-16

    申请号:CN202210400237.3

    申请日:2022-04-15

    Abstract: 本发明公开了一种面向在线视频学习的基于细粒度特征与TCN模型的情感识别方法。包括以下步骤:S1、自建眼动和视频特征的数据库,以学习视频作为刺激材料,提取学习视频中的音频数据和视频图像数据;并对数据对齐、标注、预处理、数据集设置、数据类型转换和数据集样本划分等操作;S2、将划分好的样本再次进行细粒度划分。从细粒度子样本中提取特征,将提取出的特征组成一条特征曲线,选取几个特征进行可视化分析;S3、采用LSTM、LSTM+CNN、TCN、TCN+CNN对划分好的细粒度样本进行识别,提取其中的时序特征;S4、步骤S4对训练过程可视化采用精度(Accuracy)以及混淆矩阵和ROC曲线衡量所设计的网络结构性能效果。S5、在不同数据集上验证模型的有效性。

    一种基于FECNN-LSTM的眼动和PPG多模态融合的情感识别方法

    公开(公告)号:CN113729707A

    公开(公告)日:2021-12-03

    申请号:CN202111037434.5

    申请日:2021-09-06

    Abstract: 本发明公开了一种基于FECNN‑LSTM的眼动和PPG多模态融合的情感识别方法。包括:通过观看学习视频刺激材料,利用眼动跟踪技术和光电容积脉搏波描记的容积测量方法,获得学习者的瞳孔直径、眨眼、注视和眼跳等眼动信息以及心率值,心率变异性,峰值间期信号。研究在线学习过程中学习者情感状态与眼动生理信号的关系。计算并使用主成分分析法选取与学习者情感状态最相关的眼动特征、心率特征、心率变异性特征和峰值间期特征。再进行特征层融合生成浅层特征,归一化处理后,再用FECNN网络提取深层特征,再将得到的深层特征和浅层特征进行特征层融合后采用长短时记忆网络LSTM和随机森林RF,K近邻KNN,多层感知机MLP和支持向量机SVM进行感兴趣,困惑,无聊,高兴四种情感分类。

    一种在线学习场景下基于眼动信号的情感识别方法

    公开(公告)号:CN116343318A

    公开(公告)日:2023-06-27

    申请号:CN202310218196.0

    申请日:2023-03-08

    Abstract: 本发明公开了一种在线学习场景下基于眼动信号的情感识别方法,包括4个步骤:S1数据采集模块:设计了一个模拟在线学习场景的数据采集实验来获取眼动信号的相关数据;S2眼动信号预处理模块:对采集到的眼动信号进行预处理;S3眼动特征提取与融合模块:将预处理后的眼动信号进行手工特征提取得到浅层特征,随后将浅层特征输入CNN中提取信号的深层特征,最后将深层特征与浅层特征进行特征层融合并降维得到眼动信号的融合特征;S4情感识别模块:将融合特征应用于决策树算法中对高兴、无聊、困惑和感兴趣四种情感进行识别,然后通过相关指标对识别效果进行判定。本发明能够提高在线学习场景下情感识别的精度,为未来本领域的研究提供了更多参考价值。

    一种面向在线视频学习的基于眼动和视频特征的情感识别方法

    公开(公告)号:CN113850164A

    公开(公告)日:2021-12-28

    申请号:CN202111065448.8

    申请日:2021-09-13

    Abstract: 本发明公开了一种面向在线视频学习的基于眼动和视频特征的情感识别方法。包括以下步骤:S1、自建眼动和视频特征的数据库,以学习视频作为刺激材料,获取数据;并对数据对齐、标注、预处理、数据集设置、数据类型转换、数据集划分等操作。S2、设计一个基于卷积神经网路的特征提取模块FE‑CNN,提取原始特征的深层特征。S3、设计一个基于卷积神经网路的情感分类模块EC‑CNN。S4、采用特征层融合、决策层融合和模型层融合对眼动信号、音频信号和视频图像进行融合,找出最佳融合策略。S5、对训练过程可视化并通过评价指标对所提出的网络结构评价,以检测所提出的网络的优劣。

    一种基于深度学习的眼动信号情感识别方法

    公开(公告)号:CN113537294A

    公开(公告)日:2021-10-22

    申请号:CN202110688749.X

    申请日:2021-06-22

    Abstract: 本发明公开了一种基于深度学习的眼动信号情感识别方法。包括一下步骤:S1、自建眼动数据库,以学习视频作为刺激材料,获取眼动数据。并对数据标注、预处理、数据集设置、数据类型转换、数据扩增和数据集划分等操作。S2、设计一个基于卷积神经网路的子卷积块;S3、将网络设计成一个具有五个大层的网络结构;S4、对训练过程可视化并通过评价指标对所提出的网络结构评价,以检测所提出的网络的优劣。最后使用无监督学习和标记数据,使用于训练的数据更加准确。

Patent Agency Ranking