-
公开(公告)号:CN119941589A
公开(公告)日:2025-05-06
申请号:CN202510445293.2
申请日:2025-04-10
Applicant: 北京理工大学前沿技术研究院 , 北京理工大学 , 山东汇创信息技术有限公司 , 山东伟创信息技术有限公司
Abstract: 本发明涉及一种快速的密集占用真值生成方法及装置,本发明获取驾驶场景的被语义和三维边界框标注的点云,提取连续帧点云,将各连续帧点云转换到统一的坐标系中;根据语义和三维边界框分割前后景各帧点云;取设定数量的前景目标连续帧点云进行点云叠加得到前景目标叠加点云,在对应时间段中,按照更长的步长从后景目标连续帧点云中提取关键帧点云来进行点云叠加得到后景目标叠加点云;对后景的部分进行地面确定,并对确定地面铺点处理得到稠密地面;采用精细栅格对前景目标进行栅格化,采用粗糙栅格对后景目标进行栅格化;根据前景目标的几何外观缺失程度情况对前景目标进行几何外观补全;将补全的前景目标栅格与后景栅格合并,生成占用真值。
-
公开(公告)号:CN118323163B
公开(公告)日:2025-03-18
申请号:CN202410596576.2
申请日:2024-05-14
Applicant: 北京理工大学前沿技术研究院 , 北京理工大学 , 山东汇创信息技术有限公司 , 山东伟创信息技术有限公司
Abstract: 本发明提供了一种考虑遮挡不确定性的自动驾驶决策方法及系统,包括:获取自车状态信息和环境车辆状态信息;其中,在自车对应的环境车辆中引入虚拟车辆;基于获得的自车和环境车辆的状态信息,采用多帧融合模块获得包含时间信息的自车的状态嵌入和环境车辆的状态嵌入;以及基于自车的状态嵌入和环境车辆的状态嵌入,采用基于交叉注意力机制的关键车辆选择模块,获得全局状态特征;基于获得的全局状态特征,采用预先训练的基于值分布的强化学习模型,获得车辆输出动作,实现自车车辆的自动驾驶决策。
-
公开(公告)号:CN119160172A
公开(公告)日:2024-12-20
申请号:CN202411642755.1
申请日:2024-11-18
Applicant: 北京理工大学前沿技术研究院 , 北京理工大学 , 山东汇创信息技术有限公司 , 山东伟创信息技术有限公司
IPC: B60W30/08 , B60W30/095 , B60W40/10 , B60W40/105 , B60W40/12
Abstract: 本发明提出了一种防止清扫车碰撞的安全控制方法、系统和设备,属于清扫车安全控制技术领域,该方法包括:采集栅格地图信息,获取目标车辆的位姿信息和车辆状态信息;利用目标车辆的位姿信息和车辆状态信息预测目标车辆的第一轨迹点;将第一轨迹点插值处理成固定间距的第二轨迹点,再利用车身宽度信息和位姿信息将第二轨迹点横向固定距离采样扩展成带状轨迹点簇;从当前位置的带状轨迹点簇由近到远在局部栅格地图中遍历,确定距离目标车辆当前位置路程最近的碰撞轨迹点;计算出防止车辆碰撞的加速度。基于该方法,还提出了一种防止清扫车碰撞的安全控制系统和设备。本发明可以保证目标车辆在碰到障碍物之前停下来,以提升目标车辆驾驶的安全性。
-
公开(公告)号:CN118675147A
公开(公告)日:2024-09-20
申请号:CN202410881516.5
申请日:2024-07-03
Applicant: 北京理工大学前沿技术研究院 , 北京理工大学 , 山东汇创信息技术有限公司 , 山东伟创信息技术有限公司
Abstract: 本发明涉及一种路面信息与障碍物的检测融合方法及系统,涉及智能驾驶感知技术领域。本申请利用路面信息提取器从道路图像中获取路面信息检测结果并提供路面信息掩膜;3D障碍物检测模型综合道路图像和道路环境点云或基于道路环境点云获取BEV空间下的障碍物检测结果;将道路环境点云通过坐标系转换投影到对应的道路图像中,利用路面信息掩膜对原始的道路环境点云进行过滤,得到与不同路面信息实例对应的路面信息点集,以获取BEV空间的路面信息;根据图像采集设备与雷达获取信息的触发时间戳差值和自车运动参数计算得到修正旋转平移矩阵,BEV空间的路面信息被修正旋转平移矩阵修正后与BEV空间的障碍物检测结果融合,融合精度更高。
-
公开(公告)号:CN118182538B
公开(公告)日:2024-08-13
申请号:CN202410612049.6
申请日:2024-05-17
Applicant: 北京理工大学前沿技术研究院 , 北京理工大学 , 山东汇创信息技术有限公司 , 山东伟创信息技术有限公司
Abstract: 本发明提供了一种基于课程强化学习的无保护左转场景决策规划方法及系统。该方法包括,获取自车辆状态信息和障碍物信息;基于可变数量的障碍物信息,提取空间维度的障碍物特征;所述空间维度的障碍物特征包括多时间维度信息;基于空间维度的障碍物特征,提取多时间维度的空间特征信息;基于多时间维度的空间特征信息,采用多阶段的课程学习方法进行启发式训练,每下一训练阶段,抛弃一个未来时间帧状态,直到抛弃所有未来时间帧特征,得到输入只有当前时间帧和过去时间帧的多维时空的障碍物特征;将多维时空的障碍物特征与自车辆状态信息进行融合,得到融合特征;将融合特征和奖励信息,输入策略网络,经动作解码网络输出自车辆动作信息。
-
公开(公告)号:CN118154676B
公开(公告)日:2024-08-13
申请号:CN202410564254.X
申请日:2024-05-09
Applicant: 北京理工大学前沿技术研究院 , 北京理工大学 , 山东汇创信息技术有限公司 , 山东伟创信息技术有限公司
Abstract: 本发明提出了一种基于激光雷达的场景定位方法和系统,属于机器人鲁棒定位技术领域,该方法包括:根据目标场景的先验地图点云确定局部地图;将局部地图中的第一点云体素划分后存储为第一体素格子,计算每个第一体素格子的第一均值与第一方差;将实时点云体素划分后存储为第二体素格子,计算第二体素格子的第二均值与第二方差;根据第一均值和第二均值确定待配准局部地图的均值;根据第一方差和第二方差确定待配准局部地图的方差,完成增量更新;根据目标点云在增量更新后待配准局部地图中体素格子的位置对目标点云定位。基于该方法,还提出了一种基于激光雷达的场景定位系统。本发明提高定位系统在复杂多变环境下的准确性和鲁棒性。
-
公开(公告)号:CN117687042A
公开(公告)日:2024-03-12
申请号:CN202410152962.2
申请日:2024-02-04
Applicant: 北京理工大学前沿技术研究院 , 北京理工大学 , 山东汇创信息技术有限公司 , 山东伟创信息技术有限公司
IPC: G01S17/931
Abstract: 本发明提出了一种多雷达数据融合方法、系统和设备,属于设备勘测导航技术领域,该方法包括以下步骤:获取多激光雷达原始点云数据,将原始点云数据转化为笛卡尔坐标系下的第一中间数据进行误差弥补;将转化至笛卡尔坐标系下的第一中间数据采用定点数计算框架表示用于减少冗余计算;根据每个激光雷达安装位置将采用定点数计算框架表示的第一中间数据旋转平移到以车为中心的坐标点,所述以车为中心的坐标点融合为点云感知域。基于一种多雷达数据融合方法,还提出了一种多雷达数据融合系统和设备。本发明实现了对多个高精度雷达原始数据的快速转换和处理及坐标系转换融合形成更大感知视野,减少感知盲区。
-
公开(公告)号:CN115071762A
公开(公告)日:2022-09-20
申请号:CN202211002636.0
申请日:2022-08-22
Applicant: 北京理工大学前沿技术研究院 , 山东汇创信息技术有限公司
Abstract: 本申请涉及自动驾驶技术领域,尤其涉及一种面向城市场景下行人轨迹预测方法、模型及存储介质,方法包括:用向量表示各智能体的轨迹序列,并基于层级的网络结构得到预测目标的空间交互特征;利用LSTM网络提取预测目标历史轨迹中的轨迹时序特征;利用多头注意力机制对空间交互特征和轨迹时序特征进行融合得到场景上下文特征;对场景上下文特征进行解码输出预测目标的未来轨迹。以场景向量特征作为输入,能直接学习场景中的关键交互信息,将空间交互特征和轨迹时序特征有效结合,通过对周边智能体分配不同的注意力,使模型更加关注对预测目标产生较大影响的个体,从而有助于提高复杂城市道路场景中行人轨迹的预测效果。
-
公开(公告)号:CN119428708A
公开(公告)日:2025-02-14
申请号:CN202411819831.1
申请日:2024-12-11
Applicant: 北京理工大学前沿技术研究院 , 北京理工大学 , 山东汇创信息技术有限公司 , 山东伟创信息技术有限公司
IPC: B60W40/10 , B60W40/105 , B60W30/18 , B60W50/00
Abstract: 本发明提供一种清扫车横向控制多控制算法切换方法和系统。涉及车辆横向控制技术领域。本申请获取当前清扫车车速,将当前清扫车车速与设定的第一车速阈值和第二车速阈值比较;若当前清扫车车速大于等于第一车速阈值,则清扫车处于高速状态,在高速状态下选用纯跟踪控制算法计算车辆前轮转角来进行清扫车的横向控制;若当前清扫车车速小于等于第二车速阈值,则清扫车处于低速状态,在低速状态选用PID控制算法计算车辆前轮转角来进行清扫车的横向控制;若当前清扫车车速大于第二车速阈值且小于第一车速阈值,则选用纯跟踪控制算法和PID控制算法的加权结果作为最终的车辆前轮转角来进行清扫车横向控制,以此来提升清扫车在运行过程中的稳定性。
-
公开(公告)号:CN118982646A
公开(公告)日:2024-11-19
申请号:CN202411463197.2
申请日:2024-10-21
Applicant: 北京理工大学前沿技术研究院 , 北京理工大学 , 山东汇创信息技术有限公司 , 山东伟创信息技术有限公司
IPC: G06V10/22 , G01S7/497 , G01C25/00 , G01C21/00 , G01C21/16 , G06V20/10 , G06V10/44 , G06T7/73 , G06T7/33
Abstract: 本发明提供利用IMU角度信息进行SLAM漂移诊断与补偿方法,涉及SLAM技术领域。利用稀疏点云特征点配准来估计位姿;确定稀疏点云关键帧及其估计位姿;在IMU处于零速或匀速时,分析IMU数据计算的当前关键帧俯仰角,配准的当前关键帧的俯仰角,当前关键帧相对当前关键帧前第h个历史关键帧俯仰角和IMU数据计算的当前关键帧俯仰角之差判断是否发生漂移;漂移时,取当前关键帧的xy坐标和航向角保持不变,将IMU数据计算的当前关键帧的横滚角、俯仰角和当前关键帧前第h个历史关键帧的z坐标赋值给当前关键帧;未漂移时,用位姿误差和漂移误差构建G2O图优化的代价函数,利用G2O图优化进行优化迭代。
-
-
-
-
-
-
-
-
-