-
公开(公告)号:CN106931879A
公开(公告)日:2017-07-07
申请号:CN201710057089.9
申请日:2017-01-23
Applicant: 成都通甲优博科技有限责任公司
IPC: G01B11/00
Abstract: 本发明公开了双目误差测量方法、装置及系统,方法包括:确定参考坐标系,计算激光测距仪在参考坐标系下的第一空间位置信息;根据待测试双目模块计算目标物体空间位置信息,计算目标物体空间位置信息在参考坐标系下的第二空间位置信息;计算待测试双目模块测试得到的目标物体与激光测距仪的第一距离值;利用激光测距仪测量的目标物体与激光测距仪的第二距离值,以及第一距离值,计算得到双目误差;采用激光测距仪测试得到的距离作为双目模块的真值,极大的降低了硬件成本,简化了安装步骤;将双目模块、激光测距仪与目标物体转换到参考坐标系中,消除了安装过程中产生的误差,提高了双目误差测量的精度。
-
公开(公告)号:CN106981044B
公开(公告)日:2020-06-23
申请号:CN201710164670.0
申请日:2017-03-20
Applicant: 成都通甲优博科技有限责任公司
IPC: G06T3/00
Abstract: 本申请公开了一种图像虚化方法及系统,该方法包括:获取原始图像所对应的深度图,并在深度图上确定出聚焦区域;利用深度图上的深度信息,分别确定深度图中每个像素点的虚化系数;将深度图上聚焦区域与非聚焦区域之间的深度边界所对应的深度差确定为滤波系数;将滤波系数与深度图中每个像素点的虚化系数进行加权融合,得到虚化系数图;基于虚化系数图对原始图像展开滤波处理,得到虚化后图像。本申请在对图像进行虚化的过程中,将聚焦区域和非聚焦区域之间的深度边界所对应的深度差考虑了进去,这样能够对前景的颜色泄漏进行有效地抑制,从而提升了图像虚化效果。
-
公开(公告)号:CN106931879B
公开(公告)日:2020-01-21
申请号:CN201710057089.9
申请日:2017-01-23
Applicant: 成都通甲优博科技有限责任公司
IPC: G01B11/00
Abstract: 本发明公开了双目误差测量方法、装置及系统,方法包括:确定参考坐标系,计算激光测距仪在参考坐标系下的第一空间位置信息;根据待测试双目模块计算目标物体空间位置信息,计算目标物体空间位置信息在参考坐标系下的第二空间位置信息;计算待测试双目模块测试得到的目标物体与激光测距仪的第一距离值;利用激光测距仪测量的目标物体与激光测距仪的第二距离值,以及第一距离值,计算得到双目误差;采用激光测距仪测试得到的距离作为双目模块的真值,极大的降低了硬件成本,简化了安装步骤;将双目模块、激光测距仪与目标物体转换到参考坐标系中,消除了安装过程中产生的误差,提高了双目误差测量的精度。
-
公开(公告)号:CN106780590B
公开(公告)日:2019-12-24
申请号:CN201710001725.6
申请日:2017-01-03
Applicant: 成都通甲优博科技有限责任公司
Abstract: 本发明公开了深度图的获取方法及系统,包括:利用视差获取方法获取左图像和右图像的视差;根据视差计算深度图中每个像素点与其同名点相邻两个像素点之间的匹配代价差;将整型的视差空间利用所述连续匹配代价拟合函数进行多次拟合得到连续的视差空间,计算亚像素级精度的像素坐标得到亚像素视差空间;根据亚像素视差空间计算深度值,获得深度图;该方法直接在基于整型视差空间的深度图上做亚像素拟合,相对于基于亚像素空间的立体匹配的深度图算法,在大大减小了所需内存空间的同时,也缩短了算法的运行时间,用连续函数拟合的方法对离散的视差空间进行拟合插值,得到连续的视差空间从而消除了深度图的分层效应,使得基于视差的三维测量的精度得到提高。
-
公开(公告)号:CN106296698B
公开(公告)日:2019-03-29
申请号:CN201610668514.3
申请日:2016-08-15
Applicant: 成都通甲优博科技有限责任公司
Abstract: 本发明提出了一种基于立体视觉的闪电三维定位方法,适用于闪电的空间重建和三维定位,涉及计算机视觉和航空航天等领域。该方法采用立体视觉技术对空间中的闪电进行三维定位,根据闪电的二维图像直观展示闪电的发展过程,以便于进一步探究和预警闪电活动。该方案包括:A、搭建双目立体视觉硬件系统,标定摄像机相关参数;B、采集闪电图像并进行预处理;C、分割提取闪电骨架线;D、匹配左右图像闪电序列点;E、利用双目立体视觉测量模型计算闪电的空间三维坐标。
-
公开(公告)号:CN107730543A
公开(公告)日:2018-02-23
申请号:CN201710805755.2
申请日:2017-09-08
Applicant: 成都通甲优博科技有限责任公司
IPC: G06T7/33
CPC classification number: G06T7/33 , G06T2207/10012
Abstract: 本发明涉及计算机视觉技术领域,其公开了一种半稠密立体匹配的快速迭代计算方法,在满足获得较高匹配精度情况的同时,提高匹配速度。该方法可概括为:分别提取左图像、右图像的特征点,构建特征描述子;然后,根据特征描述子以及极线约束,完成左右图的特征点匹配,匹配成功的特征点称为支撑点;接着,在左图像根据支撑点构建Delaunay三角形,估计左图像所有像素点的先验视差di;并计算先验视差di对应的代价误差Ci,获得本次迭代的所有支撑点的最小代价误差Cmin;对支撑点集合和最小代价误差不断迭代更新,直至满足迭代停止条件,最后,根据左图像每个像素点的视差计算其在右图像中的匹配点。
-
公开(公告)号:CN107481271A
公开(公告)日:2017-12-15
申请号:CN201710614987.X
申请日:2017-07-25
Applicant: 成都通甲优博科技有限责任公司
IPC: G06T7/32
Abstract: 本发明公开了一种立体匹配方法,包括:计算采集到的第一视频图像与第二视频图像之间的匹配代价;其中,第一视频图像和第二视频图像为一组视频图像对;采用多级级联块构造窗口,利用窗口对匹配代价对应的图像匹配块的相似度进行级联统计操作,得到求精匹配代价;根据求精匹配代价,利用递归滤波器进行代价聚合;根据代价聚合后的结果,计算各像素点的视差并对视差进行视差求精操作,得到视差图;该方法基于多级级联块和递归滤波器实现,具有实时性好、鲁棒性优、准确性高的特点,且能够得到效果很好的视差图。本发明还公开了一种立体匹配系统及移动终端,具有上述有益效果。
-
公开(公告)号:CN107220994A
公开(公告)日:2017-09-29
申请号:CN201710406344.6
申请日:2017-06-01
Applicant: 成都通甲优博科技有限责任公司
Abstract: 本发明公开了一种立体匹配的方法,所述方法包括:获取摄像装置采集的处理图像;其中,所述处理图像为左图像或右图像;对所述处理图像进行图像分割操作,得到预定数量的图像块信息;分别对每个所述图像块信息内的像素进行立体匹配;对所述立体匹配后的图像信息进行一致性检测;对所述一致性检测后的图像信息进行错误点去除操作;对所述错误点去除操作后的图像信息进行平滑滤波处理;该方法具有运行效率高和准确性高等优点,降低视觉智能设备成本,便于推广应用。本发明还公开了一种立体匹配的系统,具有上述有益效果。
-
公开(公告)号:CN106780590A
公开(公告)日:2017-05-31
申请号:CN201710001725.6
申请日:2017-01-03
Applicant: 成都通甲优博科技有限责任公司
Abstract: 本发明公开了深度图的获取方法及系统,包括:利用视差获取方法获取左图像和右图像的视差;根据视差计算深度图中每个像素点与其同名点相邻两个像素点之间的匹配代价差;将整型的视差空间利用所述连续匹配代价拟合函数进行多次拟合得到连续的视差空间,计算亚像素级精度的像素坐标得到亚像素视差空间;根据亚像素视差空间计算深度值,获得深度图;该方法直接在基于整型视差空间的深度图上做亚像素拟合,相对于基于亚像素空间的立体匹配的深度图算法,在大大减小了所需内存空间的同时,也缩短了算法的运行时间,用连续函数拟合的方法对离散的视差空间进行拟合插值,得到连续的视差空间从而消除了深度图的分层效应,使得基于视差的三维测量的精度得到提高。
-
公开(公告)号:CN106780442A
公开(公告)日:2017-05-31
申请号:CN201611079621.9
申请日:2016-11-30
Applicant: 成都通甲优博科技有限责任公司
Abstract: 本发明公开了一种立体匹配方法,包括:提取左右图的特征点,并对特征点进行特征点匹配确定支撑点;根据支撑点构建Delaunay三角形;其中,Delaunay三角形包括三角形内所有像素点视差的先验概率以及像素点与支撑点的最小支撑距离;利用视差计算方法计算左图中像素点的视差条件概率及视差置信水平;根据Delaunay三角形,视差条件概率及视差置信水平,利用贝叶斯原理计算得到最优后验视差;该方法实现了快速匹配获得高精度视差图,特别适合移动平台或实时性要求高的应用领域;本发明还公开了一种立体匹配系统,具有上述有益效果。
-
-
-
-
-
-
-
-
-