-
公开(公告)号:CN106920267B
公开(公告)日:2020-07-17
申请号:CN201710110556.X
申请日:2017-02-28
Applicant: 北京信息科技大学
IPC: G06T11/00
Abstract: 本发明公开了一种基于对称权重场和旋转重建点的快速重建图像方法和装置,所述方法包括:建立图像重建几何模型,包括基于射线追踪的投影模型和基于重建点追踪的反投影模型;建立图像重建几何模型的权重场,给出图像重建几何模型的对称结构,结合扫描模式的旋转重建点离散化模型,将正演过程和反演过程归结为投影平面上的插值采样过程;图像重建离散化几何模型的对称结构性质:不同的投影角度下的正演过程和反演过程的具有相同的计算,简化计算提高重建速度;基于对称权重场和旋转重建点,建立图像重建快速方法。采用本发明的方案,实现计算机断层技术的快速重建,可以为医学CT、工业无损检测和地质勘探等应用领域更快地重建出高精度图像。
-
公开(公告)号:CN108053468A
公开(公告)日:2018-05-18
申请号:CN201711293627.0
申请日:2017-12-08
Applicant: 北京信息科技大学
IPC: G06T17/00 , H04N13/207 , H04N13/271 , H04N5/232
Abstract: 本发明公开了一种单目视觉聚焦堆栈采集与场景重建方法,其包括:通过电控旋转器控制定焦镜头的转动,采集聚焦堆栈数据;在定焦镜头的转动的过程中,固定探测器,并沿相机的光轴同步平移定焦透镜;根据对定焦镜头的位置调整,建立电控旋转器的转动角度与成像面深度的对应关系;根据电控旋转器的转动角度和成像面深度的对应关系,并结合透镜成像的物像关系,建立电控旋转器的转动角度与聚焦物面深度之间的对应关系;根据电控旋转器的转动角度与聚焦物面深度之间的对应关系,利用极大化聚焦测度泛函计算每一物点的深度,输出场景深度图和全聚焦图,以重构三维场景。本发明能够来满足对相机拍摄视场(FOV)下三维场景重构、图像深度信息和全聚焦的需求,生成深度图和全聚焦图像。
-
公开(公告)号:CN107945221A
公开(公告)日:2018-04-20
申请号:CN201711293626.6
申请日:2017-12-08
Applicant: 北京信息科技大学
IPC: G06T7/33
CPC classification number: G06T7/344 , G06T2207/10024
Abstract: 本发明公开了一种基于RGB-D图像的三维场景特征表达与高精度匹配方法,利用透视投影模型和尺度空间理论,检测并提取RGB-D图像的三维特征点;利用圆的旋转不变性,为每一个特征点选定以其为圆心的四个同心圆区域为此特征点所需的特征描述区域;在每个圆环区域以及最里面的中心圆区域内分别计算像素点的梯度模值和方向,建立方向直方图,其中,“圆环区域”为相邻的两同心圆之间的环形区域;利用方向直方图,建立环形描述子,对每一个特征点进行特征描述,生成特征向量,并根据特征向量间的欧式距离匹配特征点。通过采用本发明提供的方法,对RGB-D图像进行三维特征表达与匹配,避免了主方向的分配、降低特征向量的维数,为后续特征匹配降低了计算量、节省了时间,实现特征匹配的实时性。
-
公开(公告)号:CN106023189A
公开(公告)日:2016-10-12
申请号:CN201610325812.2
申请日:2016-05-17
Applicant: 北京信息科技大学
IPC: G06T7/00
CPC classification number: G06T2207/10028
Abstract: 本发明公开了一种基于匹配优化的光场数据深度重建方法,包括:在四维光场中基于加权的区域匹配算法建立视差的目标函数,求解所述目标函数得到初步视差图;建立置信函数,根据所述置信函数的取值将所述初步视差图中的匹配像素分为准确匹配像素和误匹配像素;对所述目标函数设置阈值,根据所述阈值将所述误匹配像素分为平滑误匹配像素和边缘遮挡误匹配像素;以及对所述平滑误匹配像素进行平滑处理,对所述遮挡误匹配像素进行自适应匹配,以便优化所述视差图,并根据优化后的视差图输出场景深度。通过采用本发明提供的方法,能够在四维光场理论下实现高精度的深度重建。
-
公开(公告)号:CN105976431A
公开(公告)日:2016-09-28
申请号:CN201610345960.0
申请日:2016-05-23
Applicant: 北京信息科技大学
IPC: G06T17/30
CPC classification number: G06T17/30 , G06T2200/04 , G06T2200/08
Abstract: 本发明公开了一种基于旋转光场的三维表面重构方法,包括:(1)对旋转光场进行参数化表征,建立重构物体与旋转光场的几何关系;(2)从旋转采样光场中提取每个视点图像的特征点,追踪匹配成功的特征点的坐标轨迹,对坐标轨迹进行参数拟合得到正弦函数曲线;(3)由特征点与旋转光场的几何关系,得到特征点与旋转角度在旋转光场中的正弦函数,根据拟合得到的所述正弦函数曲线计算特征点的三维坐标,重构三维图像,并实现三维测量。通过采用本发明提供的基于旋转光场三维表面重构方法,实现了全视角的三维表面重构,可以为虚拟现实和增强现实提供全视角精确的三维结构信息。
-
公开(公告)号:CN118279455A
公开(公告)日:2024-07-02
申请号:CN202410461983.2
申请日:2024-04-17
Applicant: 北京信息科技大学
Abstract: 本发明公开了一种基于单目视觉的动态人体神经辐射场重构方法和装置,其包括:步骤1,通过相机采集动态人体视频,将动态人体视频进行分帧处理,得到预设间隔帧数的图片;步骤2,根据步骤1获得的图片,将人体的预设关键点的位置信息作为点提示,通过基于大模型SAM的场景动静分解模块,获得每帧图片的人体掩码,进而获得分解后的动态人体和静态背景;步骤3,利用式(1)描述的动态人体神经辐射场模型#imgabs0#获得动态人体的颜色ch和体密度σh,利用静态背景人体神经辐射场获得静态背景的颜色cs和体密度;#imgabs1#步骤4,通过体渲染技术,将步骤3获得的动态人体在规范空间中三维点的颜色和体密度,生成动态人体的新视角和新姿势图。本发明能够实现不使用多目视觉同步采集设备,仅通过单目相机采集到的数据,渲染出任意视角,任意姿态的动态人体,并可有效捕捉动态人体和静态背景的细节信息,得到具有高真实性和准确性的动静联合重构结果。
-
公开(公告)号:CN117171605B
公开(公告)日:2024-02-20
申请号:CN202311453699.2
申请日:2023-11-03
IPC: G06F18/23213 , G01S19/37
Abstract: 本发明公开了一种基于GPS数据的迁徙鸟类轨迹分割方法,其包括:步骤1,获取鸟类个体的GPS数据;步骤2,将GPS数据中不符合条件的数据去除,将剩下的数据按时间依正序排列,每一数据作为一个位点,获得的所有位点构成点集;步骤3,将点集进行聚类,获得多个聚类,再将聚类中的有效类划分成运动类或静止类,计算每一有效类的统计结果;步骤4,根据点集,采用停留点检测算法,获得多个类,再将该类划分成运动类或静止类,计算每一个类的统计结果;步骤5,对比步骤3和步骤4划分出的运动类和静止类的统计结果,选出最终的迁徙鸟类轨迹分割结果。本发明属于时空数据挖掘与处理技术领域,用于获得迁徙鸟类轨迹分割结果。
-
公开(公告)号:CN117196946A
公开(公告)日:2023-12-08
申请号:CN202311134318.4
申请日:2023-09-05
Applicant: 北京信息科技大学
IPC: G06T3/40 , G01N21/84 , G06N3/0455 , G06N3/048 , G06N3/09
Abstract: 本发明公开了一种基于自监督学习的光场空间域超分辨成像方法及装置,其包括:S1,采集原始低分辨率光场子孔径图像FLR;S2,利用基于自监督学习的光场超分辨模型,对FLR同步进行空间域的超分辨重构,获得光场数据FHR*;S2的基于自监督学习的光场超分辨模型的获取方法具体包括:S21,将随机编码向量z作为多尺度网络的输入,输出高分辨率的光场子孔径图像堆栈FHR;S22,将FLR在角度域中的数据维度为U×V的光场子孔径图像进行通道叠加,得到低分辨率光场子孔径图像堆栈 S23,对FHR在空间域进行t倍下采样,得到模拟低分辨率光场子孔径图像堆栈 S24,根据FHR和 描述基于自监督学习的光场超分辨模型。本发明能够满足基于深度学习的方法对光场超分辨不需要大量数据集的需要。
-
公开(公告)号:CN111598997B
公开(公告)日:2023-10-13
申请号:CN202010398746.8
申请日:2020-05-12
Applicant: 北京信息科技大学
IPC: G06T17/00
Abstract: 本发明公开了一种基于聚焦堆栈单体数据子集架构的全局计算成像方法,该方法包括:步骤1,从场景图像聚焦堆栈数据中找出聚焦测度最大的场景图像;步骤2,在场景图像中划分所有单体区域对应的区域图像;步骤3,在最大聚焦测度的场景图像的单体区域图像上,找出单体区域;步骤4,利用单体区域找出第j个单体的聚焦堆栈数据;步骤5,在单体区域中选定代表区域,从第j个单体的聚焦堆栈数据的I个场景图像中筛选出V个场景图像,得到第j个单体的第v个图像和聚焦堆栈单体数据子集;步骤6,对单体进行深度重建和全聚焦成像;步骤7,局部一致性优化;步骤8,全局融合。本发明能够提高聚焦堆栈重建的计算的效率、实现三维场景单体的高精度重建。
-
公开(公告)号:CN116805354A
公开(公告)日:2023-09-26
申请号:CN202311063067.5
申请日:2023-08-23
Abstract: 本发明公开了一种基于神经辐射场的珍稀鸟类三维模型重构方法与装置,其包括:步骤1,采集珍稀鸟类目标物的离散旋转光场数据;步骤2,估计离散旋转光场数据对应的场景多视点图像对应的相机位姿;步骤3,根据步骤2获取的场景多视点图像对应的相机位姿,获得多视点图像相机位姿的转换矩阵,进而通过NDC中的齐次坐标变换和射线变换,将步骤1采集到的珍稀鸟类目标物的离散旋转光场数据,转换到NDC空间中;步骤4,利用神经辐射场,在离散旋转光场数据NDC空间下生成旋转光场新视点图像;步骤5,根据步骤4生成的旋转光场新视点图像,重构珍稀鸟类三维模型。本发明属于计算机视觉和计算机图形学的技术。本发明用于重构珍稀鸟类三维模型。
-
-
-
-
-
-
-
-
-