-
公开(公告)号:CN113256736B
公开(公告)日:2023-04-14
申请号:CN202110637214.X
申请日:2021-06-08
Applicant: 北京理工大学
Abstract: 本发明公开了一种基于可观测性优化的多相机视觉SLAM方法,该方法根据多相机视觉SLAM可观测性设计多相机视觉系统,使其用于阿克曼运动模型的地面无人平台时能够更加有效恢复定位信息尺度,该方法充分利用多相机视觉系统的基线约束和全景感知能力,依据可观测性进行优化,解决地面无人平台在未知环境中的自主导航问题,并解决现有视觉SLAM方法尺度恢复能力弱、在纹理特征稀疏或分布不均的环境中无法鲁棒地进行定位的问题;根据可观测性设计的可观测度可以直接评估实时定位的效果变化趋势,以此为依据判断关键帧之间所需的视角差异,提高了视觉SLAM的可靠性,使地面无人平台可以精准、可靠地进行真实世界尺度下的自主导航。
-
公开(公告)号:CN115631651A
公开(公告)日:2023-01-20
申请号:CN202211164802.7
申请日:2022-09-23
Applicant: 北京理工大学
IPC: G08G1/16 , G08G1/0967 , G08G1/0968 , G08G1/01 , G06N7/01
Abstract: 本发明公开了一种无控制信号路口的自动驾驶决策方案,将自动驾驶决策分工为基于预测的辅助决策和实时规划两大主体,各主体相对独立运行,辅助决策部分负责对目标车辆进行预测和最优动作决策,向实时规划部分输出决策结果;而实时规划部分则基于观测信息和辅助决策信息进行实时轨迹规划和冲突检测,并在必要时调整动作。该框架结构清晰,保证了模型的透明度和道路行驶过程中的安全可控,充分考虑了车辆之间的交互性和不确定性,最优动作决策采用了以预测结果为导向的决策树搜索方法,能够有效减小运算消耗,提高实时决策效率。
-
公开(公告)号:CN115439324A
公开(公告)日:2022-12-06
申请号:CN202211077297.2
申请日:2022-09-05
Applicant: 北京理工大学
Abstract: 本发明提出一种水滴态感知视场融合的单车环视图像实时动态拼接方法,该方法使用汽车环视视觉系统提供的全景图像信息,能够感知大范围环境信息,为卡车等可转动的非刚体特种车辆提供汽车实时环视动态拼接图像,并可为车辆提供同一尺度下的水滴态三维感知视场融合图像,实现无盲区、大范围的实时环境显示;通过基于Superpoint架构的特征点提取算法与基于SuperGlue架构的特征匹配算法可以有效改进特征匹配结果,剔除无法用于位姿估计的匹配点对,提升相机之间相对位置参数的精度和可靠性;通过在统一框架下将视频防抖与拼接相结合,可以获得稳定的动态全景拼接图像;结合构建的水滴模型与相关投影矩阵,可为车辆提供实时3D全景环视图像。
-
公开(公告)号:CN113033411A
公开(公告)日:2021-06-25
申请号:CN202110325719.2
申请日:2021-03-26
Applicant: 北京理工大学
Abstract: 本发明公开了一种基于分割与注意力机制的地面语义认知方法,可以在保证实时性的同时实现较高精度地检测车道线与路面标志等地面语义信息。本发明采用轻量级的语义分割模型ERFNet作为骨干网络,并采用注意力机制,通过引入包括局部注意力和全局注意力注意力,帮助模型在不同尺度下提取局部特征和全局特征,从而缓解目标尺度差异较大的问题。本发明还对不同尺度的注意力信息进行蒸馏学习,在不增加推理代价的条件下提高模型的准确性。此外,针对只需要进行车道线检测的场景,本发明在ERFNet的基础上添加车道线存在预测分支,帮助模型在复杂的车道线检测场景下同样可以保持较高的精度。
-
公开(公告)号:CN112918486A
公开(公告)日:2021-06-08
申请号:CN202110186884.4
申请日:2021-02-08
Applicant: 北京理工大学
IPC: B60W60/00
Abstract: 本公开的时空行为决策及轨迹规划系统及方法,长周期行为决策和轨迹规划模块用于在三维行驶时空中生成并拓展体素,利用搜索方法寻找代价最低的体素序列,进而确定参考轨迹,其中,体素为行驶车辆在规划时间内在所述三维行驶时空中的相应车道上的位置集合;短周期动态规划模块,利用短周期内的环境信息优化参考轨迹以得到最优轨迹。能够解决在包含动态障碍物的高速环境下的安全无碰撞的行为决策和轨迹规划任务的问题、平衡长周期的决策规划和短周期的轨迹规划之间的关系以提高规划和决策的效率、以及满足将决策模块和规划模块紧密结合起来的需求,使之能够更加适应动态环境,实现自主智能的规划以及重规划。
-
公开(公告)号:CN109934868B
公开(公告)日:2021-04-06
申请号:CN201910204082.4
申请日:2019-03-18
Applicant: 北京理工大学
Abstract: 本发明提供了一种基于三维点云与卫星图匹配的自主车辆定位方法,可以基于三维点云与卫星图匹配的自主车辆定位,该方法利用车载传感器得到的环境三维点云信息,结合车辆航位推算方法的输出结果,利用粒子滤波器实现车辆在卫星图或航拍图上的定位,进而得到车辆的全局坐标及航向角,可给GPS提供辅助定位信息,是一种新的定位方法;本方法对粒子滤波器的粒子权重通过神经网络比较点云生成的栅格图与卫星图像块的相似度,兼容多种传感器及多种航位推算方法,且环境适应性强。
-
公开(公告)号:CN111489578A
公开(公告)日:2020-08-04
申请号:CN202010248916.4
申请日:2020-04-01
Applicant: 北京理工大学
IPC: G08G1/0968 , G08G1/123 , G08G1/01
Abstract: 本发明公开了一种基于车道时空间隙的高速道路无人驾驶决策规划方法,本发明是在已知高精度地图、全局路径的前提下对智能车辆所在的局部行驶环境进行智能决策与规划,实现高速道路下符合人类驾驶习惯的安全决策;利用周围车辆运动预测信息构建局部代价地图,并结合多种车辆行驶代价计算方法,得到代价最小的车道时空间隙作为行驶目标;得到最优目标点之后,采用基于贝塞尔曲线优化加加速度的方法进行轨迹规划。
-
公开(公告)号:CN105809106B
公开(公告)日:2019-02-26
申请号:CN201610099028.4
申请日:2016-02-23
Applicant: 北京理工大学
Abstract: 本发明公开了基于机器视觉的车辆队形跟驰检测方法,车队按照行列排列,列方向按照地面引导线设置,每一行设置一个基准方向,沿基准方向的最末的车辆为基准车,在车队中每个车体的前端安装前向摄像头,每个车体靠近基准车的一侧设置侧向摄像头、另一侧设置靶标;调整前向摄像头使地面引导线在图像正中,调整侧向摄像头使靶标在图像正中;在开始时刻,获取标准前视画面和标准侧视画面,并设置标准刻线和标准靶标,标准刻线与引导线重合、标准靶标与基准车靶标重合;在车辆跟驰过程中,计算引导线偏离标准刻线的距离和偏离角、以及靶标偏离距离,最终解算出引导线实际偏离量,以及车辆与基准车的纵向距离,对车辆行驶方向进行调整。
-
公开(公告)号:CN105799710B
公开(公告)日:2019-02-05
申请号:CN201610139715.4
申请日:2016-03-11
Applicant: 北京理工大学
Abstract: 本发明公开了一种交互式的自主教练车系统,用于为教练车的驾驶员提供实时的、自动化的指导教学。采用环境感知模块感知教练车周围环境,获得环境信息发送至语音模块以及车辆控制模块;采用操作反馈模块获取当前时刻方向盘角度、档位以及刹车油门角度,计算获得的下一时刻的车辆的行驶状态发送到车辆控制模块以及语音模块;车辆控制模块依据环境信息判断教练车是否违反交通规则以及是否发生碰撞,若是,则进入自主驾驶模式,否则接收驾驶员输入的语音操作指令;语音模块依据环境信息进行路径规划并计算车辆下一时刻方向相对于引导线的偏移量,规划操作方法并进行播报;语音模块接收驾驶员下达的语音操作指令并发送至车辆控制模块。
-
公开(公告)号:CN105550665B
公开(公告)日:2019-01-25
申请号:CN201610027922.0
申请日:2016-01-15
Applicant: 北京理工大学
Abstract: 本发明提供一种基于双目视觉的无人驾驶汽车可通区域检测方法,过程为:获取安装在无人驾驶车上的车载双目摄像机采集的车辆前方左右目图像作为原始识别图像;对左右目图像进行预处理,获取处理后的稠密视差图;针对稠密视差图获得相应的U视差图;针对U视差图获得障碍物图;利用障碍物图对稠密视差图进行障碍物剔除,获得剔除大量障碍物后的视差图;针对剔除大量障碍物后的视差图,获得其规范化的V视差图;针对V视差图,获得道路区域的上边沿;将所述稠密视差图中道路区域的上边沿以上部分剔除,获得剔除非道路区域的视差图;针对剔除非道路区域的视差图,进行进一步的障碍物剔除,然后对获得的障碍物图进行灰度反转,获得可通行区域图。
-
-
-
-
-
-
-
-
-