双目相机自标定方法及系统

    公开(公告)号:CN111862235A

    公开(公告)日:2020-10-30

    申请号:CN202010711714.9

    申请日:2020-07-22

    Abstract: 本发明提供一种双目相机自标定方法及系统,包括:1)获取左右原始图像;2)校正左右原始图像;3)从左右校正图像中提取特征点并匹配;4)统计左右图像纵坐标偏差的平均值,若大于对应阈值则修正估计第一参数组,反复迭代修正,直至小于对应阈值;5)找到静态物体及车道线;6)处于移动状态时,追踪静态物体的视差及车轮运动信息;7)得到车轮运动距离与静态物体的三维距离变化值的距离偏差及车道线的宽度偏差,若大于对应阈值则修正估计第二参数组,反复迭代校正,直至小于对应阈值,完成自标定。本发明利用实时图像追踪、车体运动信息及车道宽度信息,对内外参进行优化标定,完成图像校正工作,为车体提供准确的三维识别数据。

    一种多路图像数据同步发送装置、接收装置和传输系统

    公开(公告)号:CN111698386A

    公开(公告)日:2020-09-22

    申请号:CN202010455596.X

    申请日:2020-05-26

    Abstract: 本发明涉及一种多路图像数据前端同步发送装置,包括:图像接入与合并传输模块,用于完成多路图像数据的同步接入与合并;图像帧编号添加模块,用于对合并后的图像数据依次添加图像帧编号;图像行/帧校验添加模块,用于对图像数据添加行/帧校验码;至少两条图像发送通道,用于完成多路图像的同步输出,其中,每条图像发送通道中传输的图像数据完全相同。本发明还涉及一种多路图像数据后端同步接收装置和一种多路图像数据的远距离同步传输系统。本发明对非压缩的多路图像数据能够提高同步传输可靠性。

    一种三维语义地图的构建方法、装置、电子设备及存储介质

    公开(公告)号:CN111190981A

    公开(公告)日:2020-05-22

    申请号:CN201911354167.7

    申请日:2019-12-25

    Abstract: 本申请涉及一种三维语义地图的构建方法、装置、电子设备及存储介质,该方法通过获取环境图像集合,并根据已训练的语义分割模型对环境图像集合进行语义分割,得到语义图像序列。将语义图像序列的每帧语义图像投射到预先建立的三维坐标系上,得到第一点云集合,第一点云集合中的第一点云对应每帧语义图像。对第一点云集合进行滤波,得到滤波后的第一点云集合;对滤波后的第一点云集合中的第一点云进行聚类处理,得到第二点云集合;对第二点云集合进行滤波,得到三维语义地图。本申请将彩色图像序列和深度图像序列结合作为语义分割模型的输入,如此,可以提升语义预测能力,且基于带语义的点云分层次地进行滤波,可以节约缓存、提升实时性。

    一种面向具身交互的情境化场景问答数据生成方法

    公开(公告)号:CN120012916A

    公开(公告)日:2025-05-16

    申请号:CN202411944935.5

    申请日:2024-12-27

    Abstract: 本发明涉及一种面向具身交互的情境化场景问答数据生成方法,包括以下步骤:获取目标场景数据;基于所述目标场景数据,利用描述模型生成对应的场景上下文描述;基于智能体在场景中的位置和朝向设定多个不同情景,并根据设定情景将所述场景上下文描述映射到智能体的第一视角,得到对应的情景上下文描述;基于所述目标场景数据,构建交互式问答采集系统来采集真实用户的问答数据;对所述情景上下文描述进行关键词拆分,并将拆分后的关键词作为真实用户参与交互问答过程中的先验提示。本发明能够生成更加符合人类的情境化场景以及具身智能的应用需求的问答数据,为增强智能体的推理能力和泛化能力提供更好的基础。

    基于先验深度与高斯溅射模型融合的场景三维重建方法

    公开(公告)号:CN118351252A

    公开(公告)日:2024-07-16

    申请号:CN202410417649.7

    申请日:2024-04-09

    Abstract: 本发明涉及一种基于先验深度与高斯溅射模型融合的场景三维重建方法,包括:获取多视角下的场景图像;将多视角下的场景图像输入至场景三维重建模型中,完成场景的三维重建;其中,场景三维重建模型包括:单目深度估计网络与视觉里程计,用于基于多视角下的场景图像得到多视角下场景图像的稠密先验深度与相机位姿;点云生成模块,用于使用稠密先验深度与相机位姿生成世界坐标系下的空间点云,并将空间点云初始化为一组具有不透明度和球面谐波的三维高斯体;三维高斯优化模块,用于使用先验深度引导的自适应密度控制策略对三维高斯体的空间分布进行优化调整,完成场景的三维重建。本发明缓解观测数据不足导致的重建模糊问题。

    一种融合语义的无监督深度估计与视觉里程计方法和系统

    公开(公告)号:CN118052841A

    公开(公告)日:2024-05-17

    申请号:CN202410070464.3

    申请日:2024-01-18

    Abstract: 本发明涉及一种融合语义的无监督深度估计与视觉里程计方法和系统,其中,方法包括:接收视频序列;将所述视频序列输入至预测模型,得到预测结果;其中,所述预测模型包括:深度估计子网络,用于估计输入的目标图像对应的深度图;位姿估计子网络,用于估计输入的目标图像和源图像之间的相对位姿;语义分割子网络,用于对输入的目标图像和重建目标图像进行语义分割,得到用于构造语义重投影损失的目标图像语义分割结果和重建目标图像语义分割结果;语义掩码模块,用于根据目标图像语义分割结果构造语义掩码;重投影模块,用于根据深度图、相对位姿和语义掩码对源图像进行重投影操作,得到重建目标图像。本发明能够增强重投影损失的效用。

    一种双目图像的立体匹配方法
    29.
    发明公开

    公开(公告)号:CN118037801A

    公开(公告)日:2024-05-14

    申请号:CN202410109880.X

    申请日:2024-01-25

    Abstract: 本发明涉及一种双目图像的立体匹配方法,包括以下步骤:获取双目图像;采用立体匹配模型对所述双目图像进行分析获得视差估计;所述立体匹配模型包括:视差估计网络,用来提取所述双目图像的多尺度双目融合特征,并根据所述双目融合特征预测视差估计;光谱转换网络,用来分别提取所述双目图像不同视角的多尺度单目特征进而生成单目伪图像,且在任一尺度的多尺度单目特征提取后嵌入特征交互模块对所述任一尺度的所述单目特征进行优化;所述视差估计网络和所述光谱转换网络通过所述单目伪图像和所述视差估计来调整网络参数。本发明能够增强图像域差异较大区域的特征感知,获得更为精确的立体匹配结果。

    目标光流信息的确定方法、装置、电子设备及存储介质

    公开(公告)号:CN112967228B

    公开(公告)日:2024-04-26

    申请号:CN202110146441.2

    申请日:2021-02-02

    Abstract: 本发明涉及一种目标光流信息的确定方法、装置、电子设备及存储介质,其中,方法包括分别确定目标图像与相邻两帧图像间的光流信息集以及目标图像与相邻两帧图像对应的相机位姿信息集,根据光流信息集和相机位姿信息集,确定目标图像中对象对应的位置信息集,根据相机位姿信息集和位置信息集,确定对象在相邻两帧图像中的第一映射信息集,根据位置信息集,确定对象在目标图像中的第二映射信息集,根据光流信息集、第一映射信息集和第二映射信息集,确定目标光流信息。基于本发明实施例可以提高确定运动物体的位置信息的精确度,还可以提高确定物体运动状态的准确性。

Patent Agency Ranking