-
公开(公告)号:CN118279455A
公开(公告)日:2024-07-02
申请号:CN202410461983.2
申请日:2024-04-17
Applicant: 北京信息科技大学
Abstract: 本发明公开了一种基于单目视觉的动态人体神经辐射场重构方法和装置,其包括:步骤1,通过相机采集动态人体视频,将动态人体视频进行分帧处理,得到预设间隔帧数的图片;步骤2,根据步骤1获得的图片,将人体的预设关键点的位置信息作为点提示,通过基于大模型SAM的场景动静分解模块,获得每帧图片的人体掩码,进而获得分解后的动态人体和静态背景;步骤3,利用式(1)描述的动态人体神经辐射场模型#imgabs0#获得动态人体的颜色ch和体密度σh,利用静态背景人体神经辐射场获得静态背景的颜色cs和体密度;#imgabs1#步骤4,通过体渲染技术,将步骤3获得的动态人体在规范空间中三维点的颜色和体密度,生成动态人体的新视角和新姿势图。本发明能够实现不使用多目视觉同步采集设备,仅通过单目相机采集到的数据,渲染出任意视角,任意姿态的动态人体,并可有效捕捉动态人体和静态背景的细节信息,得到具有高真实性和准确性的动静联合重构结果。
-
公开(公告)号:CN117171605B
公开(公告)日:2024-02-20
申请号:CN202311453699.2
申请日:2023-11-03
IPC: G06F18/23213 , G01S19/37
Abstract: 本发明公开了一种基于GPS数据的迁徙鸟类轨迹分割方法,其包括:步骤1,获取鸟类个体的GPS数据;步骤2,将GPS数据中不符合条件的数据去除,将剩下的数据按时间依正序排列,每一数据作为一个位点,获得的所有位点构成点集;步骤3,将点集进行聚类,获得多个聚类,再将聚类中的有效类划分成运动类或静止类,计算每一有效类的统计结果;步骤4,根据点集,采用停留点检测算法,获得多个类,再将该类划分成运动类或静止类,计算每一个类的统计结果;步骤5,对比步骤3和步骤4划分出的运动类和静止类的统计结果,选出最终的迁徙鸟类轨迹分割结果。本发明属于时空数据挖掘与处理技术领域,用于获得迁徙鸟类轨迹分割结果。
-
公开(公告)号:CN117196946A
公开(公告)日:2023-12-08
申请号:CN202311134318.4
申请日:2023-09-05
Applicant: 北京信息科技大学
IPC: G06T3/40 , G01N21/84 , G06N3/0455 , G06N3/048 , G06N3/09
Abstract: 本发明公开了一种基于自监督学习的光场空间域超分辨成像方法及装置,其包括:S1,采集原始低分辨率光场子孔径图像FLR;S2,利用基于自监督学习的光场超分辨模型,对FLR同步进行空间域的超分辨重构,获得光场数据FHR*;S2的基于自监督学习的光场超分辨模型的获取方法具体包括:S21,将随机编码向量z作为多尺度网络的输入,输出高分辨率的光场子孔径图像堆栈FHR;S22,将FLR在角度域中的数据维度为U×V的光场子孔径图像进行通道叠加,得到低分辨率光场子孔径图像堆栈 S23,对FHR在空间域进行t倍下采样,得到模拟低分辨率光场子孔径图像堆栈 S24,根据FHR和 描述基于自监督学习的光场超分辨模型。本发明能够满足基于深度学习的方法对光场超分辨不需要大量数据集的需要。
-
公开(公告)号:CN111598997B
公开(公告)日:2023-10-13
申请号:CN202010398746.8
申请日:2020-05-12
Applicant: 北京信息科技大学
IPC: G06T17/00
Abstract: 本发明公开了一种基于聚焦堆栈单体数据子集架构的全局计算成像方法,该方法包括:步骤1,从场景图像聚焦堆栈数据中找出聚焦测度最大的场景图像;步骤2,在场景图像中划分所有单体区域对应的区域图像;步骤3,在最大聚焦测度的场景图像的单体区域图像上,找出单体区域;步骤4,利用单体区域找出第j个单体的聚焦堆栈数据;步骤5,在单体区域中选定代表区域,从第j个单体的聚焦堆栈数据的I个场景图像中筛选出V个场景图像,得到第j个单体的第v个图像和聚焦堆栈单体数据子集;步骤6,对单体进行深度重建和全聚焦成像;步骤7,局部一致性优化;步骤8,全局融合。本发明能够提高聚焦堆栈重建的计算的效率、实现三维场景单体的高精度重建。
-
公开(公告)号:CN116805354A
公开(公告)日:2023-09-26
申请号:CN202311063067.5
申请日:2023-08-23
Abstract: 本发明公开了一种基于神经辐射场的珍稀鸟类三维模型重构方法与装置,其包括:步骤1,采集珍稀鸟类目标物的离散旋转光场数据;步骤2,估计离散旋转光场数据对应的场景多视点图像对应的相机位姿;步骤3,根据步骤2获取的场景多视点图像对应的相机位姿,获得多视点图像相机位姿的转换矩阵,进而通过NDC中的齐次坐标变换和射线变换,将步骤1采集到的珍稀鸟类目标物的离散旋转光场数据,转换到NDC空间中;步骤4,利用神经辐射场,在离散旋转光场数据NDC空间下生成旋转光场新视点图像;步骤5,根据步骤4生成的旋转光场新视点图像,重构珍稀鸟类三维模型。本发明属于计算机视觉和计算机图形学的技术。本发明用于重构珍稀鸟类三维模型。
-
公开(公告)号:CN116703770A
公开(公告)日:2023-09-05
申请号:CN202310684718.6
申请日:2023-06-09
Applicant: 北京信息科技大学
IPC: G06T5/00
Abstract: 本发明公开了一种基于频谱集中程度引入重参数化的光场去噪方法和装置,其包括:步骤1,通过极小化集中程度度量函数,计算重参数化光场双平面间距Dre;步骤2,按照重参数化光场双平面间距Dre对带噪光场进行重参数化,输出重参数化之后的带噪光场;步骤3,使用hyperfan滤波器对重参数化后的带噪光场进行去噪,输出去噪后的重参数化光场。本发明能够有较好的去噪效果,同时能够较好地保持场景边缘和反光等信息。
-
公开(公告)号:CN112669355B
公开(公告)日:2023-07-25
申请号:CN202110006480.2
申请日:2021-01-05
Applicant: 北京信息科技大学
Abstract: 本发明公开了一种基于RGB‑D超像素分割的聚焦堆栈数据拼接融合方法及系统,该方法包括:步骤1,由聚焦堆栈数据计算生成全聚焦图与深度图,即准确配准的RGB‑D数据;步骤2,将低分辨率的2D大视场图像上采样至与RGB‑D数据尺度一致;步骤3,对RGB‑D数据进行超像素分割;步骤4,提取并匹配全聚焦图与大视场2D图像之间的特征点,计算同一深度层超像素的准确单应性变换矩阵;步骤5,逐深度层进行超像素变换实现全聚焦图和深度图的拼接融合;步骤6,由大视场的RGB‑D数据生成大视场的聚焦堆栈数据。本发明能够实现多组不同视角下的聚焦堆栈数据的拼接融合。
-
公开(公告)号:CN112967242B
公开(公告)日:2023-07-04
申请号:CN202110218843.9
申请日:2021-02-26
Applicant: 北京信息科技大学
IPC: G06T7/00 , G06V10/764 , G06V10/774
Abstract: 本发明公开了一种基于视觉特征聚合的光场质量评价方法,该方法包括:步骤1,获取光场数据集;步骤2,提取每一四维光场的视觉特征,得到每个四维光场的视觉聚合特征;视觉特征为四维光场的中心子孔径图像的特征向量LFCV、宏像素图上的特征向量LFMLI、极平面图像上的灰度共生矩阵特征向量LFEPI、以及不同重聚焦面上重聚焦图的特征向量LFRI中的一种或一种以上的组合;LFCV用于描述光场在空间清晰度上质量变化情况,LFMLI用于描述光场在角度域一致性退化情况,LFEPI用于描述光场在空‑角耦合域上结构变化情况,LFRI用于描述光场在投影域上的质量变化情况;步骤3,根据所述视觉聚合特征,使用支持向量回归训练得到光场质量分数评测模型;步骤4,通过光场质量分数评测模型评价光场的质量分数。本发明计算得到的光场质量客观评价分数与主观评价分数有较高的一致性。
-
公开(公告)号:CN111932601B
公开(公告)日:2023-06-06
申请号:CN202010766902.1
申请日:2020-08-03
Abstract: 本发明公开了一种基于YCbCr颜色空间光场数据的稠密深度重建方法,该方法包括以下步骤:步骤1,获取YCbCr颜色空间光场数据;步骤2,在Y通道标记平滑区域;步骤3,在CbCr通道进行语义分割;步骤4,在Y通道进行区域匹配;步骤5,优化匹配视差,并计算场景深度。通过采用本发明提供的方法,能够在四维光场理论下实现高精度的深度重建。
-
公开(公告)号:CN112381830B
公开(公告)日:2022-08-09
申请号:CN202011300818.7
申请日:2020-11-19
Applicant: 山东黄河三角洲国家级自然保护区管理委员会 , 北京信息科技大学
Abstract: 本发明公开了一种基于YCbCr超像素和图割的鸟类关键部位提取方法和装置,该方法包括:步骤1,在YCbCr颜色空间下,对鸟类图像进行超像素分割,形成图割模型的node顶点;步骤2,对鸟类图像中的背景和鸟身体的各关键部位进行多边形标记,并制作背景和关键部位的标签类型,形成图割模型中的Terminal节点;步骤3,利用超像素的颜色直方图和纹理直方图比较两个超像素的相似程度,计算两Node节点之间的边以及Node节点与Terminal节点之间的边;步骤4,构建图割模型中目标函数,并进行优化求解,得到鸟类关键部位分割结果。本发明能够获得鸟类具有区分性的精确关键部位特征,有助于避免拍摄角度、光照及姿态的影响,提高鸟类图像细粒度分类与识别的准确率。
-
-
-
-
-
-
-
-
-