一种基于单目视觉的动态人体神经辐射场重构方法和装置

    公开(公告)号:CN118279455A

    公开(公告)日:2024-07-02

    申请号:CN202410461983.2

    申请日:2024-04-17

    Abstract: 本发明公开了一种基于单目视觉的动态人体神经辐射场重构方法和装置,其包括:步骤1,通过相机采集动态人体视频,将动态人体视频进行分帧处理,得到预设间隔帧数的图片;步骤2,根据步骤1获得的图片,将人体的预设关键点的位置信息作为点提示,通过基于大模型SAM的场景动静分解模块,获得每帧图片的人体掩码,进而获得分解后的动态人体和静态背景;步骤3,利用式(1)描述的动态人体神经辐射场模型#imgabs0#获得动态人体的颜色ch和体密度σh,利用静态背景人体神经辐射场获得静态背景的颜色cs和体密度;#imgabs1#步骤4,通过体渲染技术,将步骤3获得的动态人体在规范空间中三维点的颜色和体密度,生成动态人体的新视角和新姿势图。本发明能够实现不使用多目视觉同步采集设备,仅通过单目相机采集到的数据,渲染出任意视角,任意姿态的动态人体,并可有效捕捉动态人体和静态背景的细节信息,得到具有高真实性和准确性的动静联合重构结果。

    基于自监督学习的光场空间域超分辨成像方法及装置

    公开(公告)号:CN117196946A

    公开(公告)日:2023-12-08

    申请号:CN202311134318.4

    申请日:2023-09-05

    Abstract: 本发明公开了一种基于自监督学习的光场空间域超分辨成像方法及装置,其包括:S1,采集原始低分辨率光场子孔径图像FLR;S2,利用基于自监督学习的光场超分辨模型,对FLR同步进行空间域的超分辨重构,获得光场数据FHR*;S2的基于自监督学习的光场超分辨模型的获取方法具体包括:S21,将随机编码向量z作为多尺度网络的输入,输出高分辨率的光场子孔径图像堆栈FHR;S22,将FLR在角度域中的数据维度为U×V的光场子孔径图像进行通道叠加,得到低分辨率光场子孔径图像堆栈 S23,对FHR在空间域进行t倍下采样,得到模拟低分辨率光场子孔径图像堆栈 S24,根据FHR和 描述基于自监督学习的光场超分辨模型。本发明能够满足基于深度学习的方法对光场超分辨不需要大量数据集的需要。

    一种基于聚焦堆栈单体数据子集架构的全局计算成像方法

    公开(公告)号:CN111598997B

    公开(公告)日:2023-10-13

    申请号:CN202010398746.8

    申请日:2020-05-12

    Inventor: 刘畅 邱钧 亢新凯

    Abstract: 本发明公开了一种基于聚焦堆栈单体数据子集架构的全局计算成像方法,该方法包括:步骤1,从场景图像聚焦堆栈数据中找出聚焦测度最大的场景图像;步骤2,在场景图像中划分所有单体区域对应的区域图像;步骤3,在最大聚焦测度的场景图像的单体区域图像上,找出单体区域;步骤4,利用单体区域找出第j个单体的聚焦堆栈数据;步骤5,在单体区域中选定代表区域,从第j个单体的聚焦堆栈数据的I个场景图像中筛选出V个场景图像,得到第j个单体的第v个图像和聚焦堆栈单体数据子集;步骤6,对单体进行深度重建和全聚焦成像;步骤7,局部一致性优化;步骤8,全局融合。本发明能够提高聚焦堆栈重建的计算的效率、实现三维场景单体的高精度重建。

    基于频谱集中程度引入重参数化的光场去噪方法和装置

    公开(公告)号:CN116703770A

    公开(公告)日:2023-09-05

    申请号:CN202310684718.6

    申请日:2023-06-09

    Abstract: 本发明公开了一种基于频谱集中程度引入重参数化的光场去噪方法和装置,其包括:步骤1,通过极小化集中程度度量函数,计算重参数化光场双平面间距Dre;步骤2,按照重参数化光场双平面间距Dre对带噪光场进行重参数化,输出重参数化之后的带噪光场;步骤3,使用hyperfan滤波器对重参数化后的带噪光场进行去噪,输出去噪后的重参数化光场。本发明能够有较好的去噪效果,同时能够较好地保持场景边缘和反光等信息。

    基于RGB-D超像素分割的聚焦堆栈数据拼接融合的方法及系统

    公开(公告)号:CN112669355B

    公开(公告)日:2023-07-25

    申请号:CN202110006480.2

    申请日:2021-01-05

    Abstract: 本发明公开了一种基于RGB‑D超像素分割的聚焦堆栈数据拼接融合方法及系统,该方法包括:步骤1,由聚焦堆栈数据计算生成全聚焦图与深度图,即准确配准的RGB‑D数据;步骤2,将低分辨率的2D大视场图像上采样至与RGB‑D数据尺度一致;步骤3,对RGB‑D数据进行超像素分割;步骤4,提取并匹配全聚焦图与大视场2D图像之间的特征点,计算同一深度层超像素的准确单应性变换矩阵;步骤5,逐深度层进行超像素变换实现全聚焦图和深度图的拼接融合;步骤6,由大视场的RGB‑D数据生成大视场的聚焦堆栈数据。本发明能够实现多组不同视角下的聚焦堆栈数据的拼接融合。

    一种基于视觉特征聚合的光场质量评价方法

    公开(公告)号:CN112967242B

    公开(公告)日:2023-07-04

    申请号:CN202110218843.9

    申请日:2021-02-26

    Inventor: 刘畅 邱钧 邹卓成

    Abstract: 本发明公开了一种基于视觉特征聚合的光场质量评价方法,该方法包括:步骤1,获取光场数据集;步骤2,提取每一四维光场的视觉特征,得到每个四维光场的视觉聚合特征;视觉特征为四维光场的中心子孔径图像的特征向量LFCV、宏像素图上的特征向量LFMLI、极平面图像上的灰度共生矩阵特征向量LFEPI、以及不同重聚焦面上重聚焦图的特征向量LFRI中的一种或一种以上的组合;LFCV用于描述光场在空间清晰度上质量变化情况,LFMLI用于描述光场在角度域一致性退化情况,LFEPI用于描述光场在空‑角耦合域上结构变化情况,LFRI用于描述光场在投影域上的质量变化情况;步骤3,根据所述视觉聚合特征,使用支持向量回归训练得到光场质量分数评测模型;步骤4,通过光场质量分数评测模型评价光场的质量分数。本发明计算得到的光场质量客观评价分数与主观评价分数有较高的一致性。

    基于YCbCr超像素和图割的鸟类关键部位提取方法和装置

    公开(公告)号:CN112381830B

    公开(公告)日:2022-08-09

    申请号:CN202011300818.7

    申请日:2020-11-19

    Abstract: 本发明公开了一种基于YCbCr超像素和图割的鸟类关键部位提取方法和装置,该方法包括:步骤1,在YCbCr颜色空间下,对鸟类图像进行超像素分割,形成图割模型的node顶点;步骤2,对鸟类图像中的背景和鸟身体的各关键部位进行多边形标记,并制作背景和关键部位的标签类型,形成图割模型中的Terminal节点;步骤3,利用超像素的颜色直方图和纹理直方图比较两个超像素的相似程度,计算两Node节点之间的边以及Node节点与Terminal节点之间的边;步骤4,构建图割模型中目标函数,并进行优化求解,得到鸟类关键部位分割结果。本发明能够获得鸟类具有区分性的精确关键部位特征,有助于避免拍摄角度、光照及姿态的影响,提高鸟类图像细粒度分类与识别的准确率。

Patent Agency Ranking