一种用于目标检测的数据集合成方法

    公开(公告)号:CN119295849A

    公开(公告)日:2025-01-10

    申请号:CN202310839933.9

    申请日:2023-07-10

    Abstract: 本发明提供了一种用于目标检测的数据集合成方法,包含四个主要步骤:建立背景图像库及三维模型库、估计待检测目标的三维姿态信息、场景重建和目标投影以及渲染数据和生成标签。在背景图像库建立阶段,收集了相机的内外参数和光照信息。在进行三维姿态估计时,运用了背景图像、相机参数、目标位置坐标和点云数据进行预测。然后在三维建模软件中重建场景,并投影目标。最后,渲染场景,生成数据集和标签。该方法利用三维建模软件合成数据,并通过估计场景中的三维姿态,解决了合成数据真实性低、标签成本高、难以获取特定场景真实数据等问题,大大提升了目标检测的准确性和稳定性,降低了标注成本,并能模拟特定场景,解决了数据获取的难题。

    一种双目深度估计数据集跨域迁移的方法

    公开(公告)号:CN119295526A

    公开(公告)日:2025-01-10

    申请号:CN202310838783.X

    申请日:2023-07-10

    Abstract: 本发明公开了一种双目深度估计数据集跨域迁移的方法,通过度量数据分布差异,调整预训练数据集的视差分布,所述方法包括:计算实际应用场景数据集与预训练数据集之间的皮尔逊相关系数;根据皮尔逊相关系数,计算预训练数据集的视差偏移范围;根据视差偏移范围随机生成视差偏移量,对预训练数据集的左右图进行裁剪,同时调整视差真值;通过掩码操作使模型只关注指定视差范围,模型在调整视差分布的预训练数据集上进行微调。本发明通过调整预训练数据集的视差分布,将其与实际应用场景视差分布相拟合,提高模型的泛化性,使其在新场景仍能保持较好的推理效果。

    一种双目相机标定结果的误差评估方法

    公开(公告)号:CN110889874A

    公开(公告)日:2020-03-17

    申请号:CN201911229336.4

    申请日:2019-12-04

    Abstract: 本发明提供了一种双目相机标定结果的误差评估方法。在工业生产中,对于双目相机标定,需要一个稳定可靠的方法确定标定的质量,以帮助判断标定结果,确定是否需要重新标定。现有双目标定的精确度评价研究较少,而且具有明显的局限性,无法应用于工业环境。本发明提出一种专门针对双目相机标定结果的误差评估方法,通过角点检测和曲线检测,进一步计算左右角点校正后位置的匹配误差和曲线的曲率,用于判断双目标定是否合格。该方法简单准确,能够给出明确的标定评估结果,适用于工业场景下对于双目相机的标定结果评估的要求。

    一种基于注意力机制的彩色图像特征和激光雷达点云特征的融合方法

    公开(公告)号:CN119295867A

    公开(公告)日:2025-01-10

    申请号:CN202310840045.9

    申请日:2023-07-10

    Abstract: 本发明公开了一种基于注意力机制的彩色图像特征和激光雷达点云特征的融合方法,通过注意力机制,计算出两种特征之间的融合权重进行特征融合,并用于后续的深度补全,所述方法包括:将激光雷达点云投影到对应彩色图像的二维平面上;提取稀疏深度图像特征和彩色图像特征;根据特征计算对应的查询(Query)、关键字(Key);根据查询和关键字计算特征融合需要的权重;根据计算的权重将两种特征进行加权求和得到融合特征。本发明通过注意力机制将彩色图像特征和激光雷达点云进行特征融合,得到特征用于后续的深度补全,可以预测出更加准确稠密的深度图像。

    一种深度图的背景更新方法

    公开(公告)号:CN110889866A

    公开(公告)日:2020-03-17

    申请号:CN201911230183.5

    申请日:2019-12-04

    Abstract: 本发明提供了一种深度图的背景更新方法。该方法在获取到每一帧深度图时,通过移动平均算法更新视差分布矩阵,这样得到的视差分布矩阵能够有效体现出每个像素点在一段时间内的视差分布情况。同时针对视差跳变情况,提出通过计算一段时间内的视差分布方差,或者统计一段时间内的视差跳变过大的比例,来判断某一像素点在一段时间内的视差是否稳定,用于判断此像素点的视差是否可靠,以此作为进行前景提取的依据。对于视差分布矩阵,通过提取可选的第二视差,以尽量规避因为视差跳变导致的错误前景问题。本方法计算量小,对环境变化的适应速度快,准确度高,有效解决了深度图视差跳变的问题。

    一种基于全景光流视频分析的烟雾检测装置

    公开(公告)号:CN119296018A

    公开(公告)日:2025-01-10

    申请号:CN202310843085.9

    申请日:2023-07-10

    Abstract: 本发明公开了一种基于全景光流的烟雾检测装置,用于判断是否有火灾烟雾产生,本发明包括鱼眼相机单元、图像变换单元、光流分析单元和烟雾检测单元。本发明提出了一种基于全景光流的烟雾检测方法,所述方法包括:从鱼眼相机获取2D鱼眼图像;计算鱼眼图像的光流场;将光流通过等距柱状投影变换为ERP光流;将鱼眼图像通过等距柱状投影变换为ERP图像;将ERP图像与ERP光流进行融合;通过目标检测网络计算烟雾的目标框位置坐标与置信度。本发明采用鱼眼相机捕获三维空间的信息,相比于针孔相机,鱼眼相机可以实现对整个场景的覆盖;基于图像和光流融合的双模态输入充分利用了物体的运动信息,进一步提高了目标检测网络的性能。

    基于部分角点的双目相机标定方法

    公开(公告)号:CN110889875A

    公开(公告)日:2020-03-17

    申请号:CN201911230091.7

    申请日:2019-12-04

    Abstract: 在双目立体视觉领域,双目相机标定是后续计算的基础,其标定精确度对于后续计算的精度有很大影响:标定误差较大会导致计算错误,从而导致整个视差图的计算精度降低,可靠性降低。当前双目相机标定的方法有局限性,体现在:同一组2张左右图像中,标定板上的所有角点都必须出现在图像中,以保证一组图像中角点能够一一匹配。这个约束下标定的结果对于边缘区域的校正误差较大。本发明提出了基于部分角点的双目标定,仅需要部分组图像全部包含所有角点,而不要求所有组图像中角点都必须存在。第一步通过包含所有角点图像的粗标定,获取到内参/外参作为基础参数矩阵;然后通过基础参数矩阵对所有的图像进行矫正,并重新进行精细标定。本发明解决了现有双目标定无法覆盖部分位置而导致此区域误差容易较大的问题,显著降低了双目标定过程中对于图像的限制性要求,提高工业生产中双目相机标定的效率。

    一种基于光轴偏移提升立体匹配网络泛化性的方法

    公开(公告)号:CN119295527A

    公开(公告)日:2025-01-10

    申请号:CN202310839385.X

    申请日:2023-07-10

    Abstract: 本发明公开了一种基于随机光轴偏移提升量产双目相机泛化性的方法,所述方法包括:对双目相机进行随机抽样,定量分析该批产品在双目标定后光轴偏移的角度;根据相机偏移角度的统计结果,计算偏移角度的均值与方差,通过该均值与方差构建满足正态分布的旋转矩阵;根据旋转矩阵对右图进行重映射,得到符合真实分布的、发生光轴偏移的左右图像;模型在模拟出现光轴偏移的数据集上进行训练,将训练好的模型部署到双目相机中。本发明通过统计量产双目相机在实际工作场景发生光轴偏移的角度,对数据集进行重映射,模拟真实场景发生光轴偏移时的数据分布,提高模型的泛化性,使其在相机结构发生轻微扰动时仍能保持好的推理效果。

    一种双目相机标定结果的误差评估方法

    公开(公告)号:CN110889874B

    公开(公告)日:2024-01-02

    申请号:CN201911229336.4

    申请日:2019-12-04

    Abstract: 本发明提供了一种双目相机标定结果的误差评估方法。在工业生产中,对于双目相机标定,需要一个稳定可靠的方法确定标定的质量,以帮助判断标定结果,确定是否需要重新标定。现有双目标定的精确度评价研究较少,而且具有明显的局限性,无法应用于工业环境。本发明提出一种专门针对双目相机标定结果的误差评估方法,通过角点检测和曲线检测,进一步计算左右角点校正后位置的匹配误差和曲线的曲率,用于判断双目标定是否合格。该方法简单准确,能够给出明确的标定评估结果,适用于工业场景下对于双目相机的标定结果评估的要求。

Patent Agency Ranking