-
公开(公告)号:CN113065595A
公开(公告)日:2021-07-02
申请号:CN202110357407.X
申请日:2021-04-01
Applicant: 桂林理工大学
Abstract: 本发明公开了一种用于在线视频学习的基于眼动信号的情感识别方法。包括一下步骤:S1、自建眼动数据库,以学习视频作为刺激材料,获取眼动数据。并对数据标注、预处理、数据集设置、数据类型转换、数据扩增和数据集划分等操作。S2、设计一个基于卷积神经网路的子卷积块;S3、将网络设计成一个具有五个大层的网络结构;S4、对训练过程可视化并通过评价指标对所提出的网络结构评价,以检测所提出的网络的优劣。最后使用无监督学习和标记数据,使用于训练的数据更加准确。
-
公开(公告)号:CN116327163A
公开(公告)日:2023-06-27
申请号:CN202310218204.1
申请日:2023-03-08
Applicant: 桂林理工大学
IPC: A61B5/0533 , A61B5/16 , A61B5/00 , G06F18/243 , G06F18/25
Abstract: 本发明公开了一种在线学习场景下基于皮肤电信号的情感识别方法,包括4个步骤:S1数据采集模块:设计了一个模拟在线学习场景的数据采集实验来获取皮肤电信号的相关数据;S2皮肤电信号预处理模块:对采集到的皮肤电信号进行预处理;S3皮肤电特征提取与融合模块:将预处理后的皮肤电信号进行手工特征提取得到浅层特征,随后将浅层特征输入GRU中提取信号的深层特征,最后将深层特征与浅层特征进行特征层融合并降维得到皮肤电信号的融合特征;S4情感识别模块:将融合特征应用于随机森林算法中对高兴、无聊、困惑和感兴趣四种情感进行识别并通过相关指标对识别效果进行判定。本发明能提高在线学习场景下情感识别的精度,为未来研究提供更多参考价值。
-
公开(公告)号:CN114564575A
公开(公告)日:2022-05-31
申请号:CN202210058001.6
申请日:2022-01-19
Applicant: 桂林理工大学
Abstract: 本发明涉及人工智能技术领域,具体涉及一种基于倾斜随机森林的处理大量文本中识别不良文本的方法,包括读取文本数据;对文本数据进行预处理,得到文本向量;建立不良文本词典对所述文本向量进行不良率判断,若判断不合格则将所述文本向量定义为不良文本;若判断合格则得到文本集合并执行下一步;基于文本集合,利用随机森林构建倾斜随机森林分类模型;利用倾斜随机森林分类模型对文本向量进行分类,得到文本分类结果,通过倾斜随机森林分类模型得出的分类结果准确率较高,解决了传统的随机森林算法分类的准确率较低的问题。
-
公开(公告)号:CN114913450A
公开(公告)日:2022-08-16
申请号:CN202210400237.3
申请日:2022-04-15
Applicant: 桂林理工大学
Abstract: 本发明公开了一种面向在线视频学习的基于细粒度特征与TCN模型的情感识别方法。包括以下步骤:S1、自建眼动和视频特征的数据库,以学习视频作为刺激材料,提取学习视频中的音频数据和视频图像数据;并对数据对齐、标注、预处理、数据集设置、数据类型转换和数据集样本划分等操作;S2、将划分好的样本再次进行细粒度划分。从细粒度子样本中提取特征,将提取出的特征组成一条特征曲线,选取几个特征进行可视化分析;S3、采用LSTM、LSTM+CNN、TCN、TCN+CNN对划分好的细粒度样本进行识别,提取其中的时序特征;S4、步骤S4对训练过程可视化采用精度(Accuracy)以及混淆矩阵和ROC曲线衡量所设计的网络结构性能效果。S5、在不同数据集上验证模型的有效性。
-
公开(公告)号:CN113729707A
公开(公告)日:2021-12-03
申请号:CN202111037434.5
申请日:2021-09-06
Applicant: 桂林理工大学
Abstract: 本发明公开了一种基于FECNN‑LSTM的眼动和PPG多模态融合的情感识别方法。包括:通过观看学习视频刺激材料,利用眼动跟踪技术和光电容积脉搏波描记的容积测量方法,获得学习者的瞳孔直径、眨眼、注视和眼跳等眼动信息以及心率值,心率变异性,峰值间期信号。研究在线学习过程中学习者情感状态与眼动生理信号的关系。计算并使用主成分分析法选取与学习者情感状态最相关的眼动特征、心率特征、心率变异性特征和峰值间期特征。再进行特征层融合生成浅层特征,归一化处理后,再用FECNN网络提取深层特征,再将得到的深层特征和浅层特征进行特征层融合后采用长短时记忆网络LSTM和随机森林RF,K近邻KNN,多层感知机MLP和支持向量机SVM进行感兴趣,困惑,无聊,高兴四种情感分类。
-
公开(公告)号:CN112464774A
公开(公告)日:2021-03-09
申请号:CN202011311631.7
申请日:2020-11-20
Applicant: 桂林理工大学
Abstract: 本发明公开了一种基于眼动测量的视频学习中的情感识别方法。所述方法包括:通过观看学习视频刺激材料,利用眼动跟踪技术,获得学习者的瞳孔直径、眨眼、注视和眼跳等眼动信息。研究在线学习过程中学习者情绪状态与眼动生理信号的关系。得到了了与学习者情绪状态最相关的眼动特征。在对眼动数据进行归一化处理后,采用支持向量机(SVM)机器学习模型对眼动特征的积极情绪状态和消极情绪状态进行分类,得到眼动信息情感识别结果。本发明能够提高情感识别的识别精度。
-
公开(公告)号:CN116343318A
公开(公告)日:2023-06-27
申请号:CN202310218196.0
申请日:2023-03-08
Applicant: 桂林理工大学
IPC: G06V40/18 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种在线学习场景下基于眼动信号的情感识别方法,包括4个步骤:S1数据采集模块:设计了一个模拟在线学习场景的数据采集实验来获取眼动信号的相关数据;S2眼动信号预处理模块:对采集到的眼动信号进行预处理;S3眼动特征提取与融合模块:将预处理后的眼动信号进行手工特征提取得到浅层特征,随后将浅层特征输入CNN中提取信号的深层特征,最后将深层特征与浅层特征进行特征层融合并降维得到眼动信号的融合特征;S4情感识别模块:将融合特征应用于决策树算法中对高兴、无聊、困惑和感兴趣四种情感进行识别,然后通过相关指标对识别效果进行判定。本发明能够提高在线学习场景下情感识别的精度,为未来本领域的研究提供了更多参考价值。
-
公开(公告)号:CN113850164A
公开(公告)日:2021-12-28
申请号:CN202111065448.8
申请日:2021-09-13
Applicant: 桂林理工大学
Abstract: 本发明公开了一种面向在线视频学习的基于眼动和视频特征的情感识别方法。包括以下步骤:S1、自建眼动和视频特征的数据库,以学习视频作为刺激材料,获取数据;并对数据对齐、标注、预处理、数据集设置、数据类型转换、数据集划分等操作。S2、设计一个基于卷积神经网路的特征提取模块FE‑CNN,提取原始特征的深层特征。S3、设计一个基于卷积神经网路的情感分类模块EC‑CNN。S4、采用特征层融合、决策层融合和模型层融合对眼动信号、音频信号和视频图像进行融合,找出最佳融合策略。S5、对训练过程可视化并通过评价指标对所提出的网络结构评价,以检测所提出的网络的优劣。
-
公开(公告)号:CN113537294A
公开(公告)日:2021-10-22
申请号:CN202110688749.X
申请日:2021-06-22
Applicant: 桂林理工大学
Abstract: 本发明公开了一种基于深度学习的眼动信号情感识别方法。包括一下步骤:S1、自建眼动数据库,以学习视频作为刺激材料,获取眼动数据。并对数据标注、预处理、数据集设置、数据类型转换、数据扩增和数据集划分等操作。S2、设计一个基于卷积神经网路的子卷积块;S3、将网络设计成一个具有五个大层的网络结构;S4、对训练过程可视化并通过评价指标对所提出的网络结构评价,以检测所提出的网络的优劣。最后使用无监督学习和标记数据,使用于训练的数据更加准确。
-
公开(公告)号:CN202710721U
公开(公告)日:2013-01-30
申请号:CN201220384511.4
申请日:2012-08-04
Applicant: 桂林理工大学
IPC: G01R31/327
Abstract: 本实用新型公开一种电工触点电性能智能实验单元。由实验主回路电路、触点运动机构、执行控制流程的嵌入式智能控制装置构成;实验主回路电路电源由两个定触点安装夹具上的接线柱接入;导电片安装在绝缘支架上,而绝缘支架安装在动触点往复运动机构上;嵌入式智能控制装置包括信号检测与处理电路、AD变换电路、功率驱动电路、光电隔离的RS485通信接口电路、光纤通信接口电路和数字显示电路;触点运动机构由动触点往复运动机构、伺服驱动元件、拉压力传感器、安装嵌入式控制装置的金属控制盒、电压检测传感器和电流检测传感器构成。本实用新型较好解决了电工触点电性能实验装置的自动化程度和实验结果的可靠性。
-
-
-
-
-
-
-
-
-