-
公开(公告)号:CN118447084A
公开(公告)日:2024-08-06
申请号:CN202410271051.1
申请日:2024-03-11
Applicant: 北京邮电大学
IPC: G06T7/73 , G06V10/764 , G06T17/00 , G06N5/04 , G06N5/025
Abstract: 本发明公开了一种3D视觉定位方法,属于3D视觉技术领域,其包括以下步骤:S1、三维场景图构建:从视觉场景中提取对象O的输入点云,构建一个从语义到实例的分层场景图;S2、具身视角观测体系:在3D空间中推理与文本指令相符的具身视角;S3、具身视角推理图构建:根据输入语言U和3D场景图利用LLMs进行联合推理,获得查询物体的类别、属性以及具身视角等信息;S4、具身视角推理:根据视角下的情景,在Graph上进行深度优先搜索,筛选目标对象。本发明通过引入ViewInfer3D,这是一种新颖的3D视觉定位方法,利用大型语言模型(LLMs)作为协调定位过程的中心代理。我们提出的3D场景图与LLM相结合的方式推理方式,减少了LLMs处理的token数量和推理难度并有利于发现隐含视角。