-
公开(公告)号:CN111994084B
公开(公告)日:2021-12-17
申请号:CN202010997625.5
申请日:2020-09-21
Applicant: 华南理工大学 , 广州汽车集团股份有限公司
Abstract: 本发明涉及一种驾驶员驾驶风格分类方法及其系统、存储介质,所述方法包括:步骤S1、获取当前驾驶员的驾驶数据;步骤S2、根据所述当前驾驶员的驾驶数据进行高斯混合模型训练,得到当前驾驶员驾驶行为所对应的待聚类高斯混合模型;步骤S3、分别计算所述待聚类高斯混合模型与多个预先训练好的预设驾驶类型的高斯混合模型之间的KL散度,并根据所述KL散度进行聚类分析,得到所述当前驾驶员的驾驶风格类型。本发明能够准确地识别判断驾驶员的驾驶风格。
-
公开(公告)号:CN112124028A
公开(公告)日:2020-12-25
申请号:CN202010997633.X
申请日:2020-09-21
Applicant: 华南理工大学 , 广州汽车集团股份有限公司
IPC: B60G17/019 , B60G17/052
Abstract: 本发明涉及一种电控空气悬架系统及其控制方法和系统、电控单元,所述悬架系统包括:所述系统根据汽车当前时刻的纵向加速度对空气悬架系统进行控制,若当前时刻的纵向加速度小于第一加速度阈值或大于第二加速度阈值,则基于预设的汽车动力学模型,根据当前时刻的纵向加速度计算所述前轴空气弹簧和所述后轴空气弹簧的期望弹簧作用力,根据期望弹簧作用力与所述当前时刻的内部压力值计算充入或放出所述前轴空气弹簧和所述后轴空气弹簧的气体质量流量,并根据前轴空气弹簧和后轴空气弹簧的气体质量流量生成控制指令;根据控制指令驱动空气悬架系统的前轴空气弹簧放气和后轴空气弹簧充放气。本发明能有效抑制车身姿态的失稳,提高汽车驾乘舒适性。
-
公开(公告)号:CN112083806B
公开(公告)日:2021-10-26
申请号:CN202010973218.0
申请日:2020-09-16
Applicant: 华南理工大学
Abstract: 本发明公开了一种基于多模态识别的自学习情感交互方法,步骤如下:非接触式通道分别采集语音、人脸和手势信号;对信号进行特征提取,得到信号初步特征;特征输入到双向LSTM层,得到单模态私有信息和多模态交互信息,根据这些信息得到融合特征;基于分类学习算法,结合多模态融合特征和历史情绪状态曲线预测用户情绪,选择交互模式;在交互模式下,根据对话记忆网络给出交互应答;最后,根据交互效果对情绪状态曲线和对话记忆网络进行反馈和优化。本发明允许操作者通过非接触式人机交互接口多通道输入信息,对多模态的融合特征综合考虑,结合情绪历史状态和对话记忆网络,完成交互任务。
-
公开(公告)号:CN112124028B
公开(公告)日:2022-07-12
申请号:CN202010997633.X
申请日:2020-09-21
Applicant: 华南理工大学 , 广州汽车集团股份有限公司
IPC: B60G17/019 , B60G17/052
Abstract: 本发明涉及一种电控空气悬架系统及其控制方法和系统、电控单元,所述悬架系统包括:所述系统根据汽车当前时刻的纵向加速度对空气悬架系统进行控制,若当前时刻的纵向加速度小于第一加速度阈值或大于第二加速度阈值,则基于预设的汽车动力学模型,根据当前时刻的纵向加速度计算所述前轴空气弹簧和所述后轴空气弹簧的期望弹簧作用力,根据期望弹簧作用力与所述当前时刻的内部压力值计算充入或放出所述前轴空气弹簧和所述后轴空气弹簧的气体质量流量,并根据前轴空气弹簧和后轴空气弹簧的气体质量流量生成控制指令;根据控制指令驱动空气悬架系统的前轴空气弹簧放气和后轴空气弹簧充放气。本发明能有效抑制车身姿态的失稳,提高汽车驾乘舒适性。
-
公开(公告)号:CN111994084A
公开(公告)日:2020-11-27
申请号:CN202010997625.5
申请日:2020-09-21
Applicant: 华南理工大学 , 广州汽车集团股份有限公司
Abstract: 本发明涉及一种驾驶员驾驶风格分类方法及其系统、存储介质,所述方法包括:步骤S1、获取当前驾驶员的驾驶数据;步骤S2、根据所述当前驾驶员的驾驶数据进行高斯混合模型训练,得到当前驾驶员驾驶行为所对应的待聚类高斯混合模型;步骤S3、分别计算所述待聚类高斯混合模型与多个预先训练好的预设驾驶类型的高斯混合模型之间的KL散度,并根据所述KL散度进行聚类分析,得到所述当前驾驶员的驾驶风格类型。本发明能够准确地识别判断驾驶员的驾驶风格。
-
公开(公告)号:CN112083806A
公开(公告)日:2020-12-15
申请号:CN202010973218.0
申请日:2020-09-16
Applicant: 华南理工大学
Abstract: 本发明公开了一种基于多模态识别的自学习情感交互方法,步骤如下:非接触式通道分别采集语音、人脸和手势信号;对信号进行特征提取,得到信号初步特征;特征输入到双向LSTM层,得到单模态私有信息和多模态交互信息,根据这些信息得到融合特征;基于分类学习算法,结合多模态融合特征和历史情绪状态曲线预测用户情绪,选择交互模式;在交互模式下,根据对话记忆网络给出交互应答;最后,根据交互效果对情绪状态曲线和对话记忆网络进行反馈和优化。本发明允许操作者通过非接触式人机交互接口多通道输入信息,对多模态的融合特征综合考虑,结合情绪历史状态和对话记忆网络,完成交互任务。
-
-
-
-
-