-
公开(公告)号:CN111932601B
公开(公告)日:2023-06-06
申请号:CN202010766902.1
申请日:2020-08-03
Abstract: 本发明公开了一种基于YCbCr颜色空间光场数据的稠密深度重建方法,该方法包括以下步骤:步骤1,获取YCbCr颜色空间光场数据;步骤2,在Y通道标记平滑区域;步骤3,在CbCr通道进行语义分割;步骤4,在Y通道进行区域匹配;步骤5,优化匹配视差,并计算场景深度。通过采用本发明提供的方法,能够在四维光场理论下实现高精度的深度重建。
-
公开(公告)号:CN107945221B
公开(公告)日:2021-06-11
申请号:CN201711293626.6
申请日:2017-12-08
Applicant: 北京信息科技大学
IPC: G06T7/33
Abstract: 本发明公开了一种基于RGB‑D图像的三维场景特征表达与高精度匹配方法,利用透视投影模型和尺度空间理论,检测并提取RGB‑D图像的三维特征点;利用圆的旋转不变性,为每一个特征点选定以其为圆心的四个同心圆区域为此特征点所需的特征描述区域;在每个圆环区域以及最里面的中心圆区域内分别计算像素点的梯度模值和方向,建立方向直方图,其中,“圆环区域”为相邻的两同心圆之间的环形区域;利用方向直方图,建立环形描述子,对每一个特征点进行特征描述,生成特征向量,并根据特征向量间的欧式距离匹配特征点。通过采用本发明提供的方法,对RGB‑D图像进行三维特征表达与匹配,避免了主方向的分配、降低特征向量的维数,为后续特征匹配降低了计算量、节省了时间,实现特征匹配的实时性。
-
公开(公告)号:CN106875436B
公开(公告)日:2019-10-22
申请号:CN201710090688.0
申请日:2017-02-20
Applicant: 北京信息科技大学
IPC: G06T7/55
Abstract: 本发明公开了一种基于特征点密度由聚焦堆栈估计深度的方法和装置,所述方法包括:提取聚焦堆栈中每个图像的特征点,建立基于特征点密度的聚焦测度;建立引入特征点密度的加权聚焦测度的估计深度的模型:以采用SML聚焦测度为例,建立SML与特征点密度的加权线性混合聚焦测度作为深度估计的目标函数,实现对场景深度的估计和全聚焦图。本发明的方案,建立关于特征点密度的聚焦测度及建立线性加权聚焦测度,并构建基于聚焦测度的深度估计模型,获取场景的深度信息,以实现场景的全聚焦与三维重构,可为现实三维重构提供精确的深度信息并获取全聚焦图像。
-
公开(公告)号:CN106846469A
公开(公告)日:2017-06-13
申请号:CN201710091014.2
申请日:2017-02-20
Applicant: 北京信息科技大学
IPC: G06T17/00
Abstract: 本发明公开了一种基于特征点追踪由聚焦堆栈重构三维场景的方法和装置,包括:建立由三维场景生成聚焦堆栈的正演模型,给出三维场景特征点与聚焦堆栈的几何关系;提取聚焦堆栈中每个图像的特征点,追踪匹配成功的特征点的坐标,得到特征点在聚焦堆栈中的轨迹;建立由聚焦堆栈重构三维场景的反演模型:由匹配成功的特征点,建立关于特征点三维坐标的方程组,通过求解方程组得到特征点的三维坐标,重构三维场景,并实现三维几何测量。本发明的聚焦堆栈是将探测器固定,通过沿光轴移动透镜完成聚焦堆栈的采集,采用本发明的方案,能够实现相机拍摄视角下的三维重构,可以为虚拟现实和几何测量提供精确的三维结构信息。
-
公开(公告)号:CN119942449A
公开(公告)日:2025-05-06
申请号:CN202510023206.4
申请日:2025-01-07
Applicant: 北京信息科技大学
IPC: G06V20/52 , G06V10/52 , G06V10/80 , G06V10/764 , G06V10/82 , G06V10/766 , G06V10/774 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种网格划分与多尺度特征融合的密集小目标计数方法及装置,包括:步骤一,处理数据集;步骤二,根据近大远小原理,将输入图像划分为三个区域,在每一区域设置网格,按照不同大小的网格进行裁剪;步骤三,将图像切片进行特征提取,得到图像的多层次特征图;步骤四,将每一分支特征向其它分支特征维度对齐,通过动态生成特征融合权重,不同分支特征和对应的权重相乘再相加,输出低层分支融合特征、中间层分支融合特征和高层分支融合特征;步骤五,选择中间层分支融合特征和高层分支融合特征融合,输出预测点位置坐标和置信度分数,与真实点匹配,完成密集小目标计数。本发明能够提高远距离小目标的检测精度并优化计算效率。
-
公开(公告)号:CN114742847B
公开(公告)日:2025-02-14
申请号:CN202210405016.5
申请日:2022-04-18
Applicant: 北京信息科技大学
Abstract: 本发明公开了一种基于空角一致性光场抠图方法及装置,其包括:步骤1,提取光场数据的中心子孔径图像并计算其视差;步骤2,计算中心子孔径图像alpha图;步骤3,通过光场alpha图传播模型,对中心子孔径图像alpha图进行传播,获取光场alpha图alphau,v(x,y)。通过采用本发明提供的方法,可以实现准确且具有一致性的光场抠图并评估其空角一致性。
-
公开(公告)号:CN116977181A
公开(公告)日:2023-10-31
申请号:CN202311065494.7
申请日:2023-08-23
Applicant: 北京信息科技大学
IPC: G06T3/40
Abstract: 本发明公开了一种基于辐射场表示和神经场参数化的光场高分辨重建方法,其包括:步骤1,构建用于表示场景的双平面光场,再将双平面光场表示为辐射场;步骤2,利用多层感知器对辐射场进行神经场参数化,建立双平面光场的神经辐射场;步骤3,利用高频映射编码和体素渲染优化训练双平面光场的神经辐射场;步骤4,利用优化后的双平面光场的神经辐射场对光场数据进行高分辨重建。本发明能够实现在对具有复杂不利条件的光场场景进行角度超分辨。
-
公开(公告)号:CN108053367B
公开(公告)日:2021-04-20
申请号:CN201711293629.X
申请日:2017-12-08
Applicant: 北京信息科技大学
Abstract: 本发明公开了一种基于RGB‑D特征匹配的3D点云拼接与融合方法,该方法主要包括:将不同视点的场景表面3D点云数据投影到RGB‑D图像进行处理,实现三维点云降至二维的降维计算;提取RGB‑D图像特征点,建立RGB‑D图像的特征描述,对不同视点RGB‑D图像进行匹配;求解坐标及深度变换矩阵,对RGB‑D图像进行拼接与融合;将拼接后的RGB‑D图像转化为3D点云数据。通过采用本发明提供的方法,可以简化三维点云特征提取和匹配的计算,提高三维点云拼接和融合的效率。可应用于3D大视场与3D全景的场景重建。
-
公开(公告)号:CN106934110B
公开(公告)日:2021-02-26
申请号:CN201710090372.1
申请日:2017-02-20
Applicant: 北京信息科技大学
IPC: G06F30/20 , G06T17/00 , G06F111/10
Abstract: 本发明公开了一种由聚焦堆栈重建光场的滤波反投影方法和装置,主要包括:给出四维光场与聚焦堆栈的几何关系,建立由光场形成聚焦堆栈的投影模型,形成投影算子;以投影模型为基础,建立四维光场与聚焦堆栈的频域关系,形成傅立叶切片关系;基于傅立叶切片关系,建立由聚焦堆栈重建光场的滤波反投影和卷积反投影方法;选取优化的滤波函数和卷积函数重建光场。本发明的聚焦堆栈是探测器和镜头相对移动采集得到的图像序列,通过选取优化的滤波函数和卷积函数,可重建出高精度的四维光场。四维光场可实现相机拍摄视角下的三维重构,可以为虚拟现实和几何测量提供精确的三维结构信息。
-
公开(公告)号:CN111598997A
公开(公告)日:2020-08-28
申请号:CN202010398746.8
申请日:2020-05-12
Applicant: 北京信息科技大学
IPC: G06T17/00
Abstract: 本发明公开了一种基于聚焦堆栈单体数据子集架构的全局计算成像方法,该方法包括:步骤1,从场景图像聚焦堆栈数据中找出聚焦测度最大的场景图像;步骤2,在场景图像中划分所有单体区域对应的区域图像;步骤3,在最大聚焦测度的场景图像的单体区域图像上,找出单体区域;步骤4,利用单体区域找出第j个单体的聚焦堆栈数据;步骤5,在单体区域中选定代表区域,从第j个单体的聚焦堆栈数据的I个场景图像中筛选出V个场景图像,得到第j个单体的第v个图像和聚焦堆栈单体数据子集;步骤6,对单体进行深度重建和全聚焦成像;步骤7,局部一致性优化;步骤8,全局融合。本发明能够提高聚焦堆栈重建的计算的效率、实现三维场景单体的高精度重建。
-
-
-
-
-
-
-
-
-