-
公开(公告)号:CN115937614A
公开(公告)日:2023-04-07
申请号:CN202310072865.8
申请日:2023-01-31
Applicant: 燕山大学
IPC: G06V10/764 , G06V10/80 , G06V10/77 , G06V10/82 , G06N3/08 , G06N3/0464
Abstract: 本申请提供一种面向测试车载视觉传感器预期功能的极限场景分类方法,该方法包括:获取车辆的驾驶场景数据、车载视觉传感器拍摄的驾驶场景的图像;根据驾驶场景的图像的参数,确定客观图像质量评价分数;通过多层感知机对驾驶场景数据提取特征,得到对应的特征向量;将驾驶场景数据对应的特征向量、客观图像质量评价分数对应的特征向量及驾驶场景的图像的特征向量进行特征融合拼接,得到融合特征;将融合特征输入极限场景识别网络,输出车载数据传感器在当前驾驶工况下的安全类别。该方案可减少智能驾驶汽车环境感知系统对车载视觉传感器的依赖,为车载视觉传感器的预期功能安全进行完善,避免发生交通事故。
-
公开(公告)号:CN114715186B
公开(公告)日:2024-10-11
申请号:CN202210283058.6
申请日:2022-03-22
Applicant: 燕山大学
IPC: B60W60/00
Abstract: 本申请提供一种人机共驾接管请求时间的确定方法、装置、设备及介质,该方法包括:当听觉模块监测到接管请求后,视觉模块识别外部环境视频中的环境对象,确定环境对象的对象属性;根据环境对象的对象属性与驾驶经验属性,确定手部和脚部的模拟动作;利用动作模块模拟手部和脚部的模拟动作,得到改变后外部环境;根据改变后外部环境,确定改变后手部和脚部的模拟动作,直至判定外部环境安全为止,模拟得到时间动作序列;根据时间动作序列,确定接管请求时间。该方案得到的接管请求时间,可以为接管中提前接管时间的设置提供依据。
-
公开(公告)号:CN116795720A
公开(公告)日:2023-09-22
申请号:CN202310853356.9
申请日:2023-07-12
Applicant: 燕山大学
Abstract: 本申请涉及无人驾驶技术领域,公开了一种基于场景的无人驾驶系统可信性评价方法及装置。所述方法根据无人驾驶系统的具体待测功能,选取场景元素和功能测试需求进行随机组合,生成功能测试场景库;并根据功能测试需求,确定无人驾驶系统的评价指标及评价指标的经验值;基于功能测试场景库和经验值进行仿真测试,获取无人驾驶系统在评价指标下的失效率;利用失效率构建动态贝叶斯网络可信性评价模型,并利用动态贝叶斯网络可信性评价模型输出获得无人驾驶系统的状态概率;最后根据状态概率计算无人驾驶系统的可信性及组件重要度,可实现对无人驾驶系统的可信性评价。
-
公开(公告)号:CN115892039A
公开(公告)日:2023-04-04
申请号:CN202211513165.X
申请日:2022-11-29
Applicant: 燕山大学
Abstract: 本发明涉及一种自动驾驶汽车对场景适应度的预测方法,该方法首先采用主成分分析法对危险场景数据进行降维,提取出关键要素。之后兼顾安全与效率两个维度,根据选取的评价指标,用层次分析法计算自动驾驶汽车对高风险场景的适应度并分级。最后将得到的场景关键要素和场景适应度等级输入到基于循环神经网络构建的预测模型中,预测出下一刻自动驾驶系统对场景的适应度,得出一种自动驾驶汽车对场景适应度的预测模型。本发明方法能够提升自动驾驶技术安全性及高等级自动驾驶快速落地提供了理论依据和技术支撑。
-
公开(公告)号:CN116050150A
公开(公告)日:2023-05-02
申请号:CN202310064389.5
申请日:2023-01-16
Applicant: 燕山大学
Abstract: 本申请提供一种跟车、旁车插入场景的高风险场景构建方法及电子设备,该方法包括:获取跟车、旁车插入场景的待检验场景元素;利用斯皮尔曼相关性检验,从待检验场景元素中筛选出与行车风险相关性较强的场景元素,构建危险场景;计算危险场景中选定的自车与前车的车头时距;模拟自车的运动状态,实时计算自车与前车的相对距离,并确定当自车及前车的车速均为0时两车制动停车的相对距离;根据自车与前车的车头时距及两车制动停车的相对距离,构建高风险场景。该方案有助于提高自动驾驶系统检测的效率、降低检测成本。
-
公开(公告)号:CN115457521A
公开(公告)日:2022-12-09
申请号:CN202211120747.1
申请日:2022-09-15
Applicant: 燕山大学
Abstract: 本发明提供了一种基于多层时空融合的轻量化驾驶人注意力预测方法和装置。该方法包括:获取视频帧提取并存储所述视频帧中连续帧间的多层级空间特征;通过在时间维度融合所述多层级空间特征来生成驾驶人的注意力显著图;基于所述驾驶人的注意力显著图来输出驾驶人注意力预测结果。通过轻量化骨干和轻量化3D模块的设计有效提升了驾驶场景中驾驶人注意力预测的速度。本发明还使用了多尺度策略提取动态图像在不同层级上的尺度信息,使得网络可以充分的利用动态场景的时间、空间和尺度信息,从而使得驾驶人注意力预测的精度更高,实现快速、精确的感知驾驶场景中潜在风险或提供决策所需关键信息,增强智能汽车的功能可理解性和鲁棒性。
-
公开(公告)号:CN115358342A
公开(公告)日:2022-11-18
申请号:CN202211069929.0
申请日:2022-09-02
Applicant: 燕山大学
Abstract: 本申请提供一种高等级自动驾驶汽车ODC边界条件确定方法及装置,该方法包括:获取测试场景集;从测试场景集中选取若干类场景数据,对若干类场景数据进行聚类,确定场景危险等级;根据使用者实际测试需求,确定需要测试的高等级自动驾驶应对能力测试指标;根据需要测试的高等级自动驾驶应对能力测试指标,提取最高等级场景数据;将同一等级下的所有最高等级场景数据组合,形成对应等级下的边界条件。该方案完成对不同等级下的边界条件的确定,能够为不同自动驾驶等级的认定与测试提供理论支撑。
-
公开(公告)号:CN113901582A
公开(公告)日:2022-01-07
申请号:CN202111176612.2
申请日:2021-10-09
Applicant: 燕山大学
IPC: G06F30/15 , G06F30/20 , G06F119/02
Abstract: 本发明涉及一种车辆换道纵向位移计算方法及其优化方法。本发明首先解决了常规换道持续时间以及换道纵向位移预测忽视了驾驶人行为负荷的问题,综合考虑驾驶人脑力需求、视觉占用、驾驶绩效、时间紧迫感、努力程度与受挫程度提出一种多维度汽车驾驶人驾驶负荷量表,然后选择自车速度、跟车距离、横向位移与驾驶行为负荷量分析其对换道持续时间的影响,并以皮尔逊相关性检验进一步确定其相关性是否显著,本发明实现车辆换道时实时动态的换道持续时间与纵向位移计算方法,计算量小、准确性高,适合大规模的使用,为准确预估车辆换道轨迹降低换道风险提供了理论依据和技术支撑,为智能驾驶领域中车辆换道轨迹预测提供统一有效的理论依据和研究方法。
-
公开(公告)号:CN114529889B
公开(公告)日:2024-11-15
申请号:CN202210109527.2
申请日:2022-01-28
Applicant: 燕山大学
IPC: G06V20/59 , G06V10/44 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/0442 , G06N3/08 , B60W40/08 , B60W50/14 , B60W50/16 , B60W60/00
Abstract: 本发明涉及一种分心驾驶行为识别方法,所述方法包括下述步骤:获取人机共驾接管状态下驾驶人的分心驾驶时序图像数据;利用训练好的第一模型或训练好的第二模型首先获取时序图像数据的空间特征,在空间特征的基础上获取时空特征;将所述时空特征与空间特征进行融合加强,进而获得用于分心驾驶行为类别识别分心驾驶行为特征。所述方法能够实现准确识别驾驶人的分心驾驶行为、降低误接管风险,从而提升行车安全性。
-
公开(公告)号:CN114677665B
公开(公告)日:2024-08-16
申请号:CN202210227332.8
申请日:2022-03-08
Applicant: 燕山大学
IPC: G06V20/59 , G06V10/762 , G06V10/25 , G06V10/764
Abstract: 本申请提供一种驾驶场景注意力量化方法、装置、电子设备及存储介质,该述方法包括:获取驾驶人的注视区域;驾驶人包括若干驾驶风格的驾驶人;利用高斯混合模型对注视区域进行划分,得到若干注视兴趣区域;基于注视兴趣区域,计算各个驾驶风格的驾驶人的权重;根据各个驾驶风格的驾驶人的权重,确定各个注视兴趣区域的注视概率。该方案构建的注意力量化规律,准确性高,可重复性强,考虑更全面,更具有覆盖性。
-
-
-
-
-
-
-
-
-