一种车辆协同感知系统
    1.
    发明公开

    公开(公告)号:CN118154816A

    公开(公告)日:2024-06-07

    申请号:CN202410107567.2

    申请日:2024-01-25

    Abstract: 本发明涉及一种车辆协同感知系统,包括:本车和协同感知合作方,本车搭载增强现实显示设备;协同感知合作方通过搭载的感知设备获得邻近本车的目标信息,通过无线网络将目标信息发送到本车;本车接收协同感知合作方发送的目标信息后,通过模型匹配和坐标转换,得到目标车辆MESH模型的n个控制点在本车观察坐标系中的坐标;通过目标的控制点是否位于本车观察视野和是否被本车视野中环境遮挡判断后,在增强现实显示设备上显示本车观察视野内被环境遮挡目标的增强现实图像;或者显示不在本车观察视野目标、本车观察视野内未被环境遮挡目标的增强现实提示。本发明实现了不同观察视角的协同感知,提升任务执行效率。

    一种增强现实图像中目标与环境的遮挡关系判定方法

    公开(公告)号:CN118015187A

    公开(公告)日:2024-05-10

    申请号:CN202410104212.8

    申请日:2024-01-25

    Abstract: 本发明涉及一种增强现实图像中目标与环境的遮挡关系判定方法,包括:观察者获取需进行遮挡关系判定的目标信息,计算出所述目标的MESH模型中n个控制点在观察者相机坐标系中的坐标;从观察者相机拍摄的视野图像中获得环境场景的三维特征点;在视野图像中将与三维特征点对应的视野像素点进行语义属性组合,构建出观察者视野中的环境MESH网格;根据控制点在观察者相机坐标系中的坐标以及环境MESH网格,分别计算出控制点在视野图像中所处视野像素点的控制点深度值和环境深度值;判断控制点深度值和环境深度值的偏差是否处于阈值范围内;是,则该点未被环境遮挡,否,则该点被环境遮挡。本发明实现遮挡关系判定,还原出场景中的真实情况。

    一种结合视觉深度估计的目标协同感知方法

    公开(公告)号:CN118015229A

    公开(公告)日:2024-05-10

    申请号:CN202410107609.2

    申请日:2024-01-25

    Abstract: 本发明涉及一种结合视觉深度估计的目标协同感知方法,包括:观察者获取协同感知的目标信息;根据目标类型获取目标的MESH模型,并将目标的位置坐标与姿态转换为目标MESH模型的n个控制点在目标载体坐标系中的坐标;进行目标载体坐标系至观察者观察坐标系的坐标转换得到n个控制点在观察者观察坐标系中的坐标;根据n个控制点的坐标进行视觉深度估计判断目标是否位于观察者观察视野以及是否被观察者视野中环境遮挡;当位于观察者观察视野且被环境遮挡时,则根据控制点坐标生成目标的增强现实图像。本发明实现了不同观察视角的协同感知,提升任务执行效率。

    一种增强现实图像中目标MESH模型的生成和调用方法

    公开(公告)号:CN118015207A

    公开(公告)日:2024-05-10

    申请号:CN202410107601.6

    申请日:2024-01-25

    Abstract: 本发明涉及一种增强现实图像中目标MESH模型的生成和调用方法,包括:目标MESH模型库建立步骤,利用采集的多种候选目标的多视角环视视频,进行离线预训练,生成多种候选目标的MESH模型,建立目标模型库;目标MESH模型在线调用步骤,根据目标类型从目标模型库中获取目标的MESH模型,进行目标位置对齐和坐标转换,输出MESH模型的n个控制点在观察者观察坐标系中的坐标,然后,根据n个控制点在观察坐标系中的坐标,进行目标是否位于观察者的观察视野以及是否被观察者视野中环境遮挡的判断,当位于观察视野且被遮挡时,则根据控制点坐标在观察视野中生成目标的增强现实图像。本发明生成目标增强现实图像还原目标在场景中的真实情况。

    一种基于多车动态拼接的车辆全景盲区透视方法

    公开(公告)号:CN118350986A

    公开(公告)日:2024-07-16

    申请号:CN202410416887.6

    申请日:2024-04-08

    Abstract: 本发明提出一种基于多车动态拼接的车辆盲区透视方法,该方法借助参考车辆的相机视野来补充自车视野中因外部遮挡而引起的动态盲区信息,将单车各路相机的盲区透视结果经过投影和融合后得到车辆全景360°环视图像,为车辆提供水平方向上的无盲区视野显示,实现实时的动态环视图像拼接和3D透明感知;通过基于目标检测的盲区掩膜预测算法实时定位主车视野中的盲区范围;通过基于距离权重的羽化融合算法实现透视区域融合边界过渡自然,确保盲区信息不丢失的同时提升透视图像的视觉质量;通过基于双线程并行处理的单相机动态拼接透视算法解决目标检测运行的延时问题,提高算法处理的实时性和可靠性。

    一种基于多相机环视信息的铰链式车辆轨迹规划方法

    公开(公告)号:CN116681737A

    公开(公告)日:2023-09-01

    申请号:CN202310625591.0

    申请日:2023-05-30

    Abstract: 本发明提出一种基于多相机环视信息的铰链式车辆轨迹规划方法,根据环视图像估计相机相对位姿,结合各相机的独立语义认知获取鸟瞰环视语义认知图,与语义地图建立规划时间内不变的全局匹配关系,基于匹配特征完成车辆位姿的高精度估计,通过提高车辆位姿估计精度和匹配特征的长时鲁棒性来提升环境感知和定位精度,为后续的轨迹规划提供高精度的待融合数据。本发明根据鸟瞰环视语义认知图和车辆位姿估计设计了车辆轨迹规划方法,将构建好的通行策略集与准静态表征和车辆位姿进行融合,完成轨迹规划,提高轨迹规划的实时性和全备性;基于预测轨迹进行跟踪,通过跟踪精度更新通行策略集,提高轨迹规划的可行性。

    一种基于可观测性优化的多相机视觉SLAM方法

    公开(公告)号:CN113256736A

    公开(公告)日:2021-08-13

    申请号:CN202110637214.X

    申请日:2021-06-08

    Abstract: 本发明公开了一种基于可观测性优化的多相机视觉SLAM方法,该方法根据多相机视觉SLAM可观测性设计多相机视觉系统,使其用于阿克曼运动模型的地面无人平台时能够更加有效恢复定位信息尺度,该方法充分利用多相机视觉系统的基线约束和全景感知能力,依据可观测性进行优化,解决地面无人平台在未知环境中的自主导航问题,并解决现有视觉SLAM方法尺度恢复能力弱、在纹理特征稀疏或分布不均的环境中无法鲁棒地进行定位的问题;根据可观测性设计的可观测度可以直接评估实时定位的效果变化趋势,以此为依据判断关键帧之间所需的视角差异,提高了视觉SLAM的可靠性,使地面无人平台可以精准、可靠地进行真实世界尺度下的自主导航。

    一种基于目标检测与轨迹辨识的自动门控制方法

    公开(公告)号:CN115961859B

    公开(公告)日:2024-11-29

    申请号:CN202310118022.7

    申请日:2023-02-15

    Abstract: 本发明提供了一种基于目标检测与轨迹辨识的自动门控制方法,属于自动门开闭控制技术领域;针对现有自动门控制系统的不足,提供了一种使用视觉摄像头的自动门控制方法,首先甄别门前经过物体的类别,其次对筛选出的行人目标进行跟踪并形成运动轨迹,最后通过轨迹分辨出存在进入意图的行人目标,从而实现自动门开启与闭合的高效控制。该方法首先采用广角相机实时拍摄门前区域,作为控制方法的输入信息;其次在轻量化的神经网络模型中运行目标检测算法以筛选出行人目标,并将目标的质心坐标输入跟踪器;跟踪器形成各目标的运动轨迹后再进行轨迹辨识,最后根据轨迹辨识结果以一定策略控制电机以完成自动门的开闭动作。

    一种基于网格变形的拖挂车动态环视拼接与稳定方法

    公开(公告)号:CN116645496B

    公开(公告)日:2024-07-05

    申请号:CN202310581967.2

    申请日:2023-05-23

    Abstract: 本发明公开了一种基于网格变形的拖挂车动态环视拼接与稳定方法,在拖挂车的行驶过程中,由于车身非固连的特性,各相机图像会存在完全独立的抖动,且当车头与车身间的转角发生变化时,非固连相机在图像坐标系下的相对位置会随之发生变化;本发明通过特征点运动生成、局部特征运动传播、时域运动轨迹与拼接向量场生成、稳定‑拼接联合优化等模块,抑制由运动目标或景深变化引起的图像扭曲与变形,在统一的框架下表征并优化各路相机时域运动轨迹与空域对齐向量,最大限度地保持图像结构,同时完成各相机的视频增稳以及相机间的视频拼接,最终将处理完成的全景环视图像投影在三维感知模型上,为拖挂车提供车身四周稳定、无缝的360°动态环视图像。

Patent Agency Ranking