一种结合视觉深度估计的目标协同感知方法

    公开(公告)号:CN118015229A

    公开(公告)日:2024-05-10

    申请号:CN202410107609.2

    申请日:2024-01-25

    Abstract: 本发明涉及一种结合视觉深度估计的目标协同感知方法,包括:观察者获取协同感知的目标信息;根据目标类型获取目标的MESH模型,并将目标的位置坐标与姿态转换为目标MESH模型的n个控制点在目标载体坐标系中的坐标;进行目标载体坐标系至观察者观察坐标系的坐标转换得到n个控制点在观察者观察坐标系中的坐标;根据n个控制点的坐标进行视觉深度估计判断目标是否位于观察者观察视野以及是否被观察者视野中环境遮挡;当位于观察者观察视野且被环境遮挡时,则根据控制点坐标生成目标的增强现实图像。本发明实现了不同观察视角的协同感知,提升任务执行效率。

    一种增强现实图像中目标MESH模型的生成和调用方法

    公开(公告)号:CN118015207A

    公开(公告)日:2024-05-10

    申请号:CN202410107601.6

    申请日:2024-01-25

    Abstract: 本发明涉及一种增强现实图像中目标MESH模型的生成和调用方法,包括:目标MESH模型库建立步骤,利用采集的多种候选目标的多视角环视视频,进行离线预训练,生成多种候选目标的MESH模型,建立目标模型库;目标MESH模型在线调用步骤,根据目标类型从目标模型库中获取目标的MESH模型,进行目标位置对齐和坐标转换,输出MESH模型的n个控制点在观察者观察坐标系中的坐标,然后,根据n个控制点在观察坐标系中的坐标,进行目标是否位于观察者的观察视野以及是否被观察者视野中环境遮挡的判断,当位于观察视野且被遮挡时,则根据控制点坐标在观察视野中生成目标的增强现实图像。本发明生成目标增强现实图像还原目标在场景中的真实情况。

    一种观察者视野中协同感知目标的生成方法

    公开(公告)号:CN118015092A

    公开(公告)日:2024-05-10

    申请号:CN202410107620.9

    申请日:2024-01-25

    Abstract: 本发明涉及一种观察者视野中协同感知目标的生成方法,包括:观察者获取协同感知的临近目标信息;根据目标类型获取目标MESH模型,并将位置坐标与姿态转换为目标MESH模型的n个控制点在目标载体坐标系中的坐标;根据目标和观察者的姿态,观察者相机安装位置、移动位置以及姿态进行坐标转换,将n个控制点坐标转换至在观察者观察坐标系中的特征点坐标;根据特征点坐标进行临近目标是否位于观察者视野内的判断;是,则在观察者视野内,与特征点坐标对应的像素坐标位置上生成目标增强现实图像;否,则生成目标相对观察者视野方位的增强现实提示。本发明实现对协同感知目标的增强现实图像显示,改善驾驶体验,降低行驶风险。

Patent Agency Ranking