一种眼动数据预处理方法及系统

    公开(公告)号:CN113011394B

    公开(公告)日:2021-11-30

    申请号:CN202110453698.2

    申请日:2021-04-26

    Applicant: 吉林大学

    Abstract: 本发明提供一种眼动数据预处理方法,包括:获取原始眼动数据;检验原始眼动数据是否有效;对有效的左和/或右眼眼动数据进行频率校正;获取缺失数据的缺失间隙,判断缺失间隙是否为无效间隙,通过构造傅里叶级数对无效间隙进行缺失数据填充;对填充后的眼动数据进行滤波降噪,对降噪后的眼动数据进行特征提取以分类眼动点并获取带有有效标签的眼动数据。本发明通过检验原始眼动数据是否有效识别有效数据,通过频率校正规整眼动数据,通过构造傅里叶级数对无效间隙进行缺失数据填充使眼动数据更完整,通过融合降噪去除眼动数据噪声,基于特征提取分类的眼动点获取带有有效标签的眼动数据,可更精确的分析用户眼动特性。

    一种驾驶行为特征的构造方法、系统和驾驶行为分析方法

    公开(公告)号:CN113112796A

    公开(公告)日:2021-07-13

    申请号:CN202110372603.4

    申请日:2021-04-07

    Applicant: 吉林大学

    Abstract: 本发明公开了一种驾驶行为特征的构造方法、系统和驾驶行为分析方法,驾驶行为的特征构造方法,包括以下步骤:获取包含有轨迹信息的全局驾驶数据;基于轨迹信息识别驾驶数据中包含的驾驶事件段,获取所述驾驶事件段的局部驾驶数据;基于预设方法分别对全局驾驶数据、局部驾驶数据进行特征构造得全局特征和局部特征;将所述全局特征和局部特征组成驾驶行为特征集。避免了现有技术中驾驶行为特征构造时多依据经验或感觉的主观性,准确保留自然驾驶数据原有信息。

    一种眼动数据预处理方法及系统

    公开(公告)号:CN113011394A

    公开(公告)日:2021-06-22

    申请号:CN202110453698.2

    申请日:2021-04-26

    Applicant: 吉林大学

    Abstract: 本发明提供一种眼动数据预处理方法,包括:获取原始眼动数据;检验原始眼动数据是否有效;对有效的左和/或右眼眼动数据进行频率校正;获取缺失数据的缺失间隙,判断缺失间隙是否为无效间隙,通过构造傅里叶级数对无效间隙进行缺失数据填充;对填充后的眼动数据进行滤波降噪,对降噪后的眼动数据进行特征提取以分类眼动点并获取带有有效标签的眼动数据。本发明通过检验原始眼动数据是否有效识别有效数据,通过频率校正规整眼动数据,通过构造傅里叶级数对无效间隙进行缺失数据填充使眼动数据更完整,通过融合降噪去除眼动数据噪声,基于特征提取分类的眼动点获取带有有效标签的眼动数据,可更精确的分析用户眼动特性。

    一种考虑数据变化趋势的驾驶行为基元聚类方法

    公开(公告)号:CN119622371A

    公开(公告)日:2025-03-14

    申请号:CN202411452194.9

    申请日:2024-10-17

    Applicant: 吉林大学

    Abstract: 本发明涉及一种考虑数据变化趋势的驾驶行为基元聚类方法,包括以下步骤:步骤一:采集自然驾驶数据,选取驾驶行为分析变量,滤波处理后通过预处理后驾驶行为数据、驾驶行为导数数据得到驾驶行为数据集合#imgabs0#步骤二:用BMASS方法对#imgabs1#进行驾驶行为基元提取得到驾驶行为基元集合P={Pj;}j=1:N;步骤三:对驾驶行为基元数据初步离散化;步骤四:针对Pj中t点及其邻域的导数、数据波动情况进行驾驶行为基元的数据变化趋势判断;步骤五:综合数据分布项和数据变化趋势项得到驾驶行为基元的离散化结果,基于LDA主题模型实现驾驶行为基元的聚类;本发明能够提高驾驶行为基元的聚类准确性,实现驾驶行为基元语义信息的精准表达,帮助驾驶人准确、直观理解其驾驶行为。

    一种多模态的驾驶员分心状态识别算法

    公开(公告)号:CN118690120A

    公开(公告)日:2024-09-24

    申请号:CN202410781136.4

    申请日:2024-06-18

    Applicant: 吉林大学

    Abstract: 本发明提供一种多模态的驾驶员分心状态识别算法,包括以下步骤:模态数据#imgabs0#包括#imgabs1#通过输入编码模块对模态数据进行卷积处理,得到对齐模态数据#imgabs2#所述对齐模态参数#imgabs3#包括#imgabs4##imgabs5#对同一时间段的各对齐模态参数#imgabs6#在通道维度进行拼接,得到拼接数据X,#imgabs7#通过时间&通道注意力模块对拼接数据X处理,得到X时间注意力和通道注意力的相关性结果OTCA1;通过全连接模块,对相关性结果OTCA1进行三层全连接操作,每层全连接后进行批量归一化和激活,最终给出分类结果Y;所述分类结果Y包括分心、不分心;实现发挥不同模态数据在驾驶分心识别的优势,实现对多模态数据进行接近真实过程的处理,解决各个模态间的相关性问题和各模态数据中包含的时序信息问题,提高驾驶分心识别精度和准度。

    一种潜在碰撞事故严重程度预测方法

    公开(公告)号:CN114715146B

    公开(公告)日:2024-08-16

    申请号:CN202210497607.X

    申请日:2022-05-09

    Applicant: 吉林大学

    Abstract: 本发明公开了一种潜在碰撞事故严重程度预测方法,包括以下步骤:获取碰撞事故样本,所述碰撞事故样本中的碰撞事件带有碰撞严重程度标签,所述碰撞事故样本基于所述碰撞严重程度标签分为若干碰撞事故子样本;基于所述碰撞事故样本的基本特征,进行特征构造,得到构造特征,对所述构造特征进行筛选,得到与所述碰撞严重程度标签有相关性的表征特征;基于所述表征特征,对所述碰撞事故子样本进行过采样或欠采样处理,得到均衡的碰撞事故样本;基于得到的均衡的碰撞事故样本,建立碰撞严重程度预测模型;基于所述碰撞严重程度预测模型,对潜在碰撞事故严重程度进行预测即可。本发明的方法,可在碰撞事故发生前,对行车过程中实时的潜在碰撞事故的严重程度进行预测。

    基于卷积神经网络融合模型的驾驶行为基元识别方法

    公开(公告)号:CN118364375A

    公开(公告)日:2024-07-19

    申请号:CN202410455252.7

    申请日:2024-04-16

    Applicant: 吉林大学

    Abstract: 本发明提供基于卷积神经网络融合模型的驾驶行为基元识别方法,包括以下步骤:获取N个驾驶行为基元样本,采集驾驶行为基元的基元信息;通过基础变量信息构造驾驶行为基元的基元构造变量信息;通过基元基础变量信息、基元构造变量信息构建基元信息矩阵A;基于卷积神经网络,构建驾驶行为基元辨识模型,通过驾驶行为基元辨识模型实现对待识别驾驶行为基元的基元信息矩阵A进行处理,得到待识别驾驶行为基元的基元类别标签信息;实现同时对驾驶行为基元的基元基础变量信息、基元构造变量信息进行处理分析,且得到融合全局特征和局部特征的基元类别准确分析结果,从而提高基元识别效率,为自动驾驶行为决策提供研究基础。

    一种瞬时驾驶倾向性量化方法及识别方法

    公开(公告)号:CN117141502A

    公开(公告)日:2023-12-01

    申请号:CN202311120769.2

    申请日:2023-09-01

    Applicant: 吉林大学

    Abstract: 本发明提供一种瞬时驾驶倾向性量化方法及识别方法,所述瞬时驾驶倾向性量化方法包括以下步骤:基于所述的目标车辆实时运动状态参数、交互区域内实时自车道前车运动状态参数、交互区域内目标车道车辆实时运动状态参数通过第一公式计算得到目标车辆的驾驶倾向性客观表征指标ObjLCV(t);基于所述目标车辆实时运动状态参数通过第二公式计算得到目标车辆的驾驶倾向性主观表征指标;基于所述驾驶倾向性客观表征指标、驾驶倾向性主观表征指标通过第三公式计算目标车辆的驾驶强硬程度指标;通过驾驶强硬程度指标对交互区域内的目标车辆的瞬时驾驶倾向性进行量化;通过一种瞬时驾驶倾向性识别方法对目标车辆的瞬时驾驶倾向性进行预测。

    一种行车交互区域的确定方法以及系统

    公开(公告)号:CN117104220A

    公开(公告)日:2023-11-24

    申请号:CN202311120635.0

    申请日:2023-09-01

    Applicant: 吉林大学

    Abstract: 本发明提供一种行车交互区域的确定方法以及系统;实时监测进入广义交互区域中车辆信息,当没有车辆进入广义交互区域时,所述广义交互区域为行车交互区域;当监测有车辆进入广义交互区域时,基于自车道的目标车辆特征性能数据、目标车道的前车纵向车速、目标车道的后车纵向车速、车辆安全数据库,通过安全交互区域判断模块确定安全交互区域,所述安全交互区域为行车交互区域,实现实时确定行驶中的目标车辆的交互区域,且交互区域内目标车辆进行转向或换道时不会出现撞车现象;所述交互区域的确定有利于研究交互行为,提取交互特征,对后续研究车辆的意图辨识、轨迹预测、行为决策、风险态势评估以及路径规划等方面十分重要。

Patent Agency Ranking