-
公开(公告)号:CN115265551A
公开(公告)日:2022-11-01
申请号:CN202110993243.X
申请日:2021-08-26
Applicant: 北京理工大学 , 北京理工大学前沿技术研究院
Abstract: 本发明涉及一种无人驾驶复杂场景下的多传感器融合定位方法和系统。该多传感器融合定位方法,通过采用因子图优化方法,即采用最大后验概率估计将由定位信息构建的因子图模型转化为非线性问题后,对非线性问题进行求解得到无人车定位结果的方式,对传感器定位模型的观测数据进行融合,能够在增强无人驾驶复杂场景下多传感器融合定位鲁棒性的同时,有效提高无人驾驶车辆定位精度和速度估计精度。
-
公开(公告)号:CN115273016A
公开(公告)日:2022-11-01
申请号:CN202111048689.1
申请日:2021-09-08
Applicant: 北京理工大学 , 北京理工大学前沿技术研究院
IPC: G06V20/58 , G06V10/25 , G06V10/762
Abstract: 本发明公开了一种无人驾驶场景下障碍物不可通行区域确定方法及系统。该方法包括:将聚类后的障碍物点云进行栅格化拆分;基于最小二乘法确定每个栅格中点云的主方向;基于最小包络原则计算每个栅格中点云的包围盒的参数;包围盒的参数包括:包围盒的长、宽、高和中心坐标;根据每个栅格中包围盒的参数和点云主方向确定障碍物不可通行区域。本方法改进了将障碍物点云作为一个包围盒生成不可通行区域时容易造成包围盒形状与真实障碍物形状差异过大、包围盒尺寸过大导致过多的可通行区域被误判为不可通行区域时所存在的不足。本发明能提高无人车障碍物检测的精度和鲁棒性。
-
公开(公告)号:CN115272995A
公开(公告)日:2022-11-01
申请号:CN202111184745.4
申请日:2021-10-12
Applicant: 北京理工大学 , 北京理工大学前沿技术研究院
IPC: G06V20/56 , G06V10/762 , G06V10/82 , G06V10/774 , G06N3/04 , G06N3/08 , G06T3/40
Abstract: 本发明公开了一种基于生成对抗网络的雨雪天车道线检测方法及系统。该方法,包括:将雨雪天气下的目标图像输入雨雪痕迹去除模型得到痕迹去除图像;雨雪痕迹去除模型是由第一训练集训练生成对抗网络得到的;将痕迹去除图像输入车道线特征提取模型得到车道线像素点和车道线高维特征;车道线特征提取模型是由第二训练集训练卷积神经网络模型得到的;卷积神经网络模型包括编码器、语义分割支路和实例分割支路;实例分割支路包括第一卷积层、激励层和第二卷积层;采用聚类算法根据车道线高维特征对车道线像素点聚类得到车道线实例;对车道线实例分段拟合得到目标图像的车道线。本发明能在雨雪天气下准确检测车道线位置且适用于车道线数量未知的场景。
-
公开(公告)号:CN116756696A
公开(公告)日:2023-09-15
申请号:CN202310807078.3
申请日:2023-07-04
Applicant: 北京理工大学
IPC: G06F18/25 , G06N3/0464 , G06N3/08 , G08G1/01
Abstract: 一种异质交通参与者轨迹预测的方法,该方法在图的构建过程中,对于边的构建摒弃了基于固定距离的边选取机制,考虑了更多的“领域知识”,包括端点类型、交互关系、目标的相对方位关系,丰富了图包含的信息;同时,将影响轨迹预测结果的因素,包括运动特征和环境特征,转化成相同的数据形式和特征类型,从而将异质的点和边转化成统一的形式;最终,各类交通参与者的运动特征、相互间的交互特征、与道路的交互特征被融合在一起,传送到多层感知机解码器中,生成多模态的轨迹预测。和现有的普通图神经网络模型相比,在预测准确率上得到很大提升,尤其对于复杂密集交互场景中多目标场景,能够表现出准确且稳定的预测能力。
-
公开(公告)号:CN116452796A
公开(公告)日:2023-07-18
申请号:CN202210004802.4
申请日:2022-01-05
Applicant: 北京理工大学
IPC: G06V10/26 , G06V10/774 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/048
Abstract: 本发明基于语义分割模型设计出一种层注意力机制,解决了语义分割中边缘分割不理想问题,优化了分割细节,提升了性能指标。本发明设计的层注意力机制使得模型训练过程中更关注有效信息,进而提高模型在拼接层时的效率。本发明设计出的层注意力机制,通过赋予待拼接层注意力值,使得模型在拼接过程中干预学习过程并修复边缘分割错误,能够有效提升语义分割任务中边缘分割不理想问题。本发明能够应用到自动驾驶、医学图像处理等领域中,分割效果优异。
-
公开(公告)号:CN110544216A
公开(公告)日:2019-12-06
申请号:CN201910808161.6
申请日:2019-08-29
Applicant: 北京理工大学
Abstract: 本发明基于深度学习,设计出一款实时的视频去雾系统。采用端到端的图像去雾方法,搭载轻量级的卷积神经网络,同时学习大气散射模型中的透射率t(x)和大气光A参数,直接生成去雾图像;结合前背景分割法和双三次插值算法对视频图像进行处理进一步提高了视频处理的实时性;在NYU2数据集上根据大气散射模型生成有雾图的方法得到有雾图像数据集,用于训练和测试。本发明设计出的视频去雾系统可移植性强,能够嵌入到硬件处理器中,能应用到交通视频去雾、无人驾驶、计算机视觉辅助驾驶中,去雾能力显著,视觉效果好,是一款有效的视频去雾系统。
-
公开(公告)号:CN103712035A
公开(公告)日:2014-04-09
申请号:CN201410007797.8
申请日:2014-01-08
Applicant: 北京理工大学
IPC: F16L55/32 , B64C39/02 , F16L101/30
CPC classification number: F16L55/32 , B64C39/00 , F16L2101/30
Abstract: 笼式管道飞行器,包括外部可滚动轮框结构与内部四轴八旋翼结构。依靠内部旋翼产生的动力与扭矩差带动外部轮框滚动,从而实现前进、后退、转向、抬升、下降等机动动作。该笼式管道飞行器揭示了一种新型的管道内运动形式,可应用与管道探测与维护。与传统的履带式或者车轮式管道机器人不同,借助气流带动轮框滚动,可以应对管道内上、下、左、右各种拐角,且不易被管道内部异物推翻或卡死。
-
公开(公告)号:CN102063825B
公开(公告)日:2012-07-25
申请号:CN201010606052.5
申请日:2010-12-15
Applicant: 北京理工大学
IPC: G09B21/00
Abstract: 本发明涉及一种基于数据手套的手语识别装置,特别涉及一种采用电阻式应变传感器的数据手套,属于机器人技术领域。包括数据手套和便携式显示装置,其中数据手套负责采集聋哑人的手部动作信息,并对这些信息进行处理和识别,将识别结果通过手套上的发声装置用语音的形式传达出来,同时通过串行通讯接口将识别结果的文字信息发送到便携式显示装置显示。本发明使用电阻式应变片传感器来检测手指的弯曲,不包含机械部分,结构简单、重量轻、可靠性高;手语识别结果可以通过数据手套本身进行语音输出,并且可以通过连接便携式显示屏或连接其他常见设备等多种方式将手语识别结果的语音和文字信息表达出来,具有较高的实用性。
-
公开(公告)号:CN119919307A
公开(公告)日:2025-05-02
申请号:CN202510060536.0
申请日:2025-01-15
Applicant: 北京理工大学
IPC: G06T5/60 , G06N3/0455 , G06N3/0464 , G06T5/73 , G06T5/90
Abstract: 本发明基于Transformer网络设计出一种具有精准色彩还原效果的图像去雾系统,方法包括:设计包含5级Transformer模块的深度学习网络;采用端到端的图像去雾方法,通过估计参数K(x)来同时估计大气散射模型中的介质透射率t(x)和大气光值A以减少估算误差;使用Charbonnier损失函数在RESIDE数据集上训练网络;由含雾图像分块嵌入得到特征向量;Transformer中包括层归一化、带有对Value向量额外卷积的改进多头注意力计算、非线性激活函数、线性层和全连接层;通过反推大气散射模型并进行特征融合的图像重构得到输出的去雾图像。本发明设计出的图像去雾系统色彩还原准确度高,在去雾定量指标和人眼观察效果上表现良好,能应用到高级辅助驾驶、城市路况监测中,实现有效的图像去雾。
-
公开(公告)号:CN111489578B
公开(公告)日:2021-09-07
申请号:CN202010248916.4
申请日:2020-04-01
Applicant: 北京理工大学
IPC: G08G1/0968 , G08G1/123 , G08G1/01
Abstract: 本发明公开了一种基于车道时空间隙的高速道路无人驾驶决策规划方法,本发明是在已知高精度地图、全局路径的前提下对智能车辆所在的局部行驶环境进行智能决策与规划,实现高速道路下符合人类驾驶习惯的安全决策;利用周围车辆运动预测信息构建局部代价地图,并结合多种车辆行驶代价计算方法,得到代价最小的车道时空间隙作为行驶目标;得到最优目标点之后,采用基于贝塞尔曲线优化加加速度的方法进行轨迹规划。
-
-
-
-
-
-
-
-
-