-
公开(公告)号:CN113610961B
公开(公告)日:2022-12-09
申请号:CN202110897506.7
申请日:2021-08-05
Applicant: 北京信息科技大学
IPC: G06T17/00
Abstract: 本发明公开了一种基于卡尔曼滤波的由光场EPI重建稠密深度方法,该方法包括:步骤1,根据由(u,v)平面和(x,y)平面组成的双平面光场数据L(u,v,x,y),获取不同方向的光场EPI;步骤2,在不同方向的光场EPI中通过卡尔曼滤波搜索匹配;步骤3,将步骤2获得的不同方向的光场EPI的匹配点集合进行拼接,并将拼接后的离散点进行拟合成直线;步骤4,深度重建:在光场计算成像中,光场数据中相邻视点之间的视差与深度图存在反比例关系,因此使得深度重建问题被转化为视差重建问题。本发明能够为基于光场的数字重聚焦和三维场景重构提供高精度的深度信息。
-
公开(公告)号:CN112967242A
公开(公告)日:2021-06-15
申请号:CN202110218843.9
申请日:2021-02-26
Applicant: 北京信息科技大学
Abstract: 本发明公开了一种基于视觉特征聚合的光场质量评价方法,该方法包括:步骤1,获取光场数据集;步骤2,提取每一四维光场的视觉特征,得到每个四维光场的视觉聚合特征;视觉特征为四维光场的中心子孔径图像的特征向量LFCV、宏像素图上的特征向量LFMLI、极平面图像上的灰度共生矩阵特征向量LFEPI、以及不同重聚焦面上重聚焦图的特征向量LFRI中的一种或一种以上的组合;LFCV用于描述光场在空间清晰度上质量变化情况,LFMLI用于描述光场在角度域一致性退化情况,LFEPI用于描述光场在空‑角耦合域上结构变化情况,LFRI用于描述光场在投影域上的质量变化情况;步骤3,根据所述视觉聚合特征,使用支持向量回归训练得到光场质量分数评测模型;步骤4,通过光场质量分数评测模型评价光场的质量分数。本发明计算得到的光场质量客观评价分数与主观评价分数有较高的一致性。
-
公开(公告)号:CN107886101B
公开(公告)日:2021-06-15
申请号:CN201711293628.5
申请日:2017-12-08
Applicant: 北京信息科技大学
IPC: G06K9/46
Abstract: 本发明公开了一种基于RGB‑D的场景三维特征点高效提取方法,其中,包括以下步骤:步骤101,利用透视投影模型,给出RGB‑D图像保三维几何结构的降维计算方法,得到场景在相机坐标系中的参数表示;步骤102,由扩散方程出发,利用有限差分与尺度空间理论,建立检测RGB‑D图像三维特征点的RGB‑D尺度空间;步骤103,在RGB‑D尺度空间上极值检测,获取特征点的位置;以及步骤104,利用子像元插值法,精确定位特征点,并筛除低对比度和边缘响应点,增强特征匹配稳定性和抗噪能力。通过采用本发明提供的方法,进行图像的三维特征提取,可以为后续图像配准、图像拼接、目标跟踪与识别等提供大量稳定的图像特征。
-
公开(公告)号:CN112669355A
公开(公告)日:2021-04-16
申请号:CN202110006480.2
申请日:2021-01-05
Applicant: 北京信息科技大学
Abstract: 本发明公开了一种基于RGB‑D超像素分割的聚焦堆栈数据拼接融合方法及系统,该方法包括:步骤1,由聚焦堆栈数据计算生成全聚焦图与深度图,即准确配准的RGB‑D数据;步骤2,将低分辨率的2D大视场图像上采样至与RGB‑D数据尺度一致;步骤3,对RGB‑D数据进行超像素分割;步骤4,提取并匹配全聚焦图与大视场2D图像之间的特征点,计算同一深度层超像素的准确单应性变换矩阵;步骤5,逐深度层进行超像素变换实现全聚焦图和深度图的拼接融合;步骤6,由大视场的RGB‑D数据生成大视场的聚焦堆栈数据。本发明能够实现多组不同视角下的聚焦堆栈数据的拼接融合。
-
公开(公告)号:CN108053468B
公开(公告)日:2021-02-26
申请号:CN201711293627.0
申请日:2017-12-08
Applicant: 北京信息科技大学
IPC: G06T17/00 , H04N13/207 , H04N13/271 , H04N5/232
Abstract: 本发明公开了一种单目视觉聚焦堆栈采集与场景重建方法,其包括:通过电控旋转器控制定焦镜头的转动,采集聚焦堆栈数据;在定焦镜头的转动的过程中,固定探测器,并沿相机的光轴同步平移定焦透镜;根据对定焦镜头的位置调整,建立电控旋转器的转动角度与成像面深度的对应关系;根据电控旋转器的转动角度和成像面深度的对应关系,并结合透镜成像的物像关系,建立电控旋转器的转动角度与聚焦物面深度之间的对应关系;根据电控旋转器的转动角度与聚焦物面深度之间的对应关系,利用极大化聚焦测度泛函数计算每一物点的深度,输出场景深度图和全聚焦图,以重构三维场景。本发明能够来满足对相机拍摄视场(FOV)下三维场景重构、图像深度信息和全聚焦的需求,生成深度图和全聚焦图像。
-
公开(公告)号:CN111932648A
公开(公告)日:2020-11-13
申请号:CN202010766903.6
申请日:2020-08-03
Abstract: 本发明公开了一种由螺旋采样光场数据重建三维物体的方法,其包括:步骤1,将螺旋采样光场数据表示为Ls(x,y,Φ):相机采集到的光场数据为螺旋采样光场数据,s表示螺距, 为螺旋角度,表示在第k层下的旋转角度,x、y分别为相机的探测器平面在世界坐标系中的横、纵坐标;步骤2,建立物点在螺旋采样光场下的理想轨迹方程;步骤3,进行亚光圈区域匹配,追踪匹配点在螺旋采样光场数据中的轨迹;步骤4,对轨迹进行参数拟合,得到匹配点的三维坐标,重构三维物体。本发明方法能够实现高精度的物体三维表面重构,由于与螺旋CT数据采集模式相匹配,可与螺旋CT一起构成同时重构物体表面和内部结构信息的双模态成像系统。
-
公开(公告)号:CN111932601A
公开(公告)日:2020-11-13
申请号:CN202010766902.1
申请日:2020-08-03
Abstract: 本发明公开了一种基于YCbCr颜色空间光场数据的稠密深度重建方法,该方法包括以下步骤:步骤1,获取YCbCr颜色空间光场数据;步骤2,在Y通道标记平滑区域;步骤3,在CbCr通道进行语义分割;步骤4,在Y通道进行区域匹配;步骤5,优化匹配视差,并计算场景深度。通过采用本发明提供的方法,能够在四维光场理论下实现高精度的深度重建。
-
公开(公告)号:CN106937044B
公开(公告)日:2020-10-23
申请号:CN201710090375.5
申请日:2017-02-20
Applicant: 北京信息科技大学
IPC: H04N5/232
Abstract: 本发明公开了一种不完备数据下由聚焦堆栈重建光场的代数迭代方法和装置,所述方法包括:给出四维光场与聚焦堆栈的几何关系,建立由光场形成聚焦堆栈的投影模型,形成投影算子;以投影模型为基础,建立由聚焦堆栈重建光场的反投影模型:即建立聚焦堆栈中的光线轨迹追踪模型,形成反投影算子;建立由聚焦堆栈重建光场的反投影代数迭代重建方法:采集到的聚焦堆栈数据通常在场景的一定深度范围,对应投影的不完备数据,投影模型离散为线性方程组,建立由聚焦堆栈重建光场的代数迭代方法。本发明的聚焦堆栈是探测器和镜头相对移动采集得到的图像序列,利用投影算子和反投影算子进行代数迭代可重建出高精度的四维光场。
-
公开(公告)号:CN110827338A
公开(公告)日:2020-02-21
申请号:CN201911063001.X
申请日:2019-10-31
Abstract: 本发明公开了一种分区域自适应匹配的光场数据深度重建方法,所述分区域自适应匹配的光场数据深度重建方法包括以下步骤:步骤110,定义中心视图与待匹配视图中的待匹配像素点的距离测度函数;步骤120,为不同区域的待匹配像素点选择不同的匹配窗口,其中,所述不同区域包括纹理区域、平滑区域和边缘遮挡区域;步骤130,统计匹配窗口正确匹配像素点的个数作为窗口的距离测度值,并在所述平滑区域加上平滑因子;步骤140,优化匹配视差,并计算场景深度。本发明能够在四维光场理论下实现高精度的深度重建。
-
公开(公告)号:CN106846469B
公开(公告)日:2019-12-03
申请号:CN201710091014.2
申请日:2017-02-20
Applicant: 北京信息科技大学
IPC: G06T17/00
Abstract: 本发明公开了一种基于特征点追踪由聚焦堆栈重构三维场景的方法和装置,包括:建立由三维场景生成聚焦堆栈的正演模型,给出三维场景特征点与聚焦堆栈的几何关系;提取聚焦堆栈中每个图像的特征点,追踪匹配成功的特征点的坐标,得到特征点在聚焦堆栈中的轨迹;建立由聚焦堆栈重构三维场景的反演模型:由匹配成功的特征点,建立关于特征点三维坐标的方程组,通过求解方程组得到特征点的三维坐标,重构三维场景,并实现三维几何测量。本发明的聚焦堆栈是将探测器固定,通过沿光轴移动透镜完成聚焦堆栈的采集,采用本发明的方案,能够实现相机拍摄视角下的三维重构,可以为虚拟现实和几何测量提供精确的三维结构信息。
-
-
-
-
-
-
-
-
-