一种基于双平面平移变换的大视场光场数据融合方法

    公开(公告)号:CN111882487A

    公开(公告)日:2020-11-03

    申请号:CN202010694170.X

    申请日:2020-07-17

    Abstract: 本发明公开了一种基于双平面平移变换的大视场光场数据融合方法,该方法包括:步骤1,对世界坐标系下的双平面光场进行参数化描述;步骤2,建立描述两组双平面平移变换关系的平移变换矩阵;步骤3,提取第一组双平面光场的中心视图的特征点,由于每个特征点对应光场的一个特征光线,因此可以通过匹配特征光线,得到特征光线在第二组双平面光场中对应的像点和视点,再根据特征光线在第一组双平面光场和第二组双平面光场中的空间关系,求解两组双平面平移变换关系的平移变换矩阵;步骤4,利用两组双平面的平移变换矩阵,将第一组双平面光场变换到第二组双平面光场,完成大视场光场数据的拼接融合。本发明方法能够实现基于解析变换关系的精确双平面光场拼接方法,解决了光场拼接时两个双平面拼接不一致的问题。

    基于聚焦像点的微透镜阵列型光场相机几何参数标定方法

    公开(公告)号:CN109325981A

    公开(公告)日:2019-02-12

    申请号:CN201811070094.4

    申请日:2018-09-13

    CPC classification number: G06T7/80 G06T2207/10052

    Abstract: 本发明公开了一种基于聚焦像点的微透镜阵列型光场相机几何参数标定方法,该方法包括以下步骤:S1,根据微透镜阵列型光场相机的聚焦成像光路图,得到物点与聚焦像点关于主透镜的映射关系;S2,根据微透镜阵列型光场相机的聚焦成像光路图,得到聚焦像点与探测器像点关于微透镜的映射关系;S3,根据检测得到的探测器像点,求解聚焦像点的坐标;S4,根据S3获得的聚焦像点的坐标,求解标定模型中的相机内部参数矩阵和外部参数矩;S5,通过S4获得的相机内部参数矩阵和外部参数矩阵,标定微透镜阵列型光场相机的几何参数。通过采用本发明提供的方法,进行微透镜阵列型光场相机的几何参数标定,可以为后续光场数据校准和实现计算成像提供可靠的参数。

    一种基于Wigner分布函数的全聚焦扫描成像方法

    公开(公告)号:CN109257524A

    公开(公告)日:2019-01-22

    申请号:CN201811070102.5

    申请日:2018-09-13

    Inventor: 刘畅 邱钧 高姗

    CPC classification number: H04N5/217 G06T5/002

    Abstract: 本发明公开了一种基于Wigner分布函数的全聚焦扫描成像方法,该方法包括:S1,通过Winger分布函数描述波前;S2,根据波前的Winger分布函数建立基于Winger分布函数的光传播模型,并利用基于Winger分布函数的光传播模型建立全聚焦成像模型;S3,在全聚焦成像模型中,利用基于Winger分布函数的光传播模型,推演得到成像系统的点扩散函数;S4,分析成像系统的点扩散函数,将全聚焦扫描得到的数据表达成全聚焦图像和点扩散函数的卷积;S5,根据全聚焦图像和点扩散函数的卷积,利用反卷积方法计算全聚焦图像。通过采用本发明提供的方法,基于聚焦扫描装置获取的聚焦扫描数据,可以实现清晰的全聚焦成像,同时也可以为聚焦扫描成像模型的景深拓展性能分析与扫描范围的选择提供了理论依据。

    一种基于RGB-D的场景三维特征点高效提取方法

    公开(公告)号:CN107886101A

    公开(公告)日:2018-04-06

    申请号:CN201711293628.5

    申请日:2017-12-08

    CPC classification number: G06K9/4604

    Abstract: 本发明公开了一种基于RGB-D的场景三维特征点高效提取方法,其中,包括以下步骤:步骤101,利用透视投影模型,给出RGB-D图像保三维几何结构的降维计算方法,得到场景在相机坐标系中的参数表示;步骤102,由扩散方程出发,利用有限差分与尺度空间理论,建立检测RGB-D图像三维特征点的RGB-D尺度空间;步骤103,在RGB-D尺度空间上极值检测,获取特征点的位置;以及步骤104,利用子像元插值法,精确定位特征点,并筛除低对比度和边缘响应点,增强特征匹配稳定性和抗噪能力。通过采用本发明提供的方法,进行图像的三维特征提取,可以为后续图像配准、图像拼接、目标跟踪与识别等提供大量稳定的图像特征。

    一种基于单目视觉的动态人体神经辐射场重构方法和装置

    公开(公告)号:CN118279455A

    公开(公告)日:2024-07-02

    申请号:CN202410461983.2

    申请日:2024-04-17

    Abstract: 本发明公开了一种基于单目视觉的动态人体神经辐射场重构方法和装置,其包括:步骤1,通过相机采集动态人体视频,将动态人体视频进行分帧处理,得到预设间隔帧数的图片;步骤2,根据步骤1获得的图片,将人体的预设关键点的位置信息作为点提示,通过基于大模型SAM的场景动静分解模块,获得每帧图片的人体掩码,进而获得分解后的动态人体和静态背景;步骤3,利用式(1)描述的动态人体神经辐射场模型#imgabs0#获得动态人体的颜色ch和体密度σh,利用静态背景人体神经辐射场获得静态背景的颜色cs和体密度;#imgabs1#步骤4,通过体渲染技术,将步骤3获得的动态人体在规范空间中三维点的颜色和体密度,生成动态人体的新视角和新姿势图。本发明能够实现不使用多目视觉同步采集设备,仅通过单目相机采集到的数据,渲染出任意视角,任意姿态的动态人体,并可有效捕捉动态人体和静态背景的细节信息,得到具有高真实性和准确性的动静联合重构结果。

    基于自监督学习的光场空间域超分辨成像方法及装置

    公开(公告)号:CN117196946A

    公开(公告)日:2023-12-08

    申请号:CN202311134318.4

    申请日:2023-09-05

    Abstract: 本发明公开了一种基于自监督学习的光场空间域超分辨成像方法及装置,其包括:S1,采集原始低分辨率光场子孔径图像FLR;S2,利用基于自监督学习的光场超分辨模型,对FLR同步进行空间域的超分辨重构,获得光场数据FHR*;S2的基于自监督学习的光场超分辨模型的获取方法具体包括:S21,将随机编码向量z作为多尺度网络的输入,输出高分辨率的光场子孔径图像堆栈FHR;S22,将FLR在角度域中的数据维度为U×V的光场子孔径图像进行通道叠加,得到低分辨率光场子孔径图像堆栈 S23,对FHR在空间域进行t倍下采样,得到模拟低分辨率光场子孔径图像堆栈 S24,根据FHR和 描述基于自监督学习的光场超分辨模型。本发明能够满足基于深度学习的方法对光场超分辨不需要大量数据集的需要。

    一种基于聚焦堆栈单体数据子集架构的全局计算成像方法

    公开(公告)号:CN111598997B

    公开(公告)日:2023-10-13

    申请号:CN202010398746.8

    申请日:2020-05-12

    Inventor: 刘畅 邱钧 亢新凯

    Abstract: 本发明公开了一种基于聚焦堆栈单体数据子集架构的全局计算成像方法,该方法包括:步骤1,从场景图像聚焦堆栈数据中找出聚焦测度最大的场景图像;步骤2,在场景图像中划分所有单体区域对应的区域图像;步骤3,在最大聚焦测度的场景图像的单体区域图像上,找出单体区域;步骤4,利用单体区域找出第j个单体的聚焦堆栈数据;步骤5,在单体区域中选定代表区域,从第j个单体的聚焦堆栈数据的I个场景图像中筛选出V个场景图像,得到第j个单体的第v个图像和聚焦堆栈单体数据子集;步骤6,对单体进行深度重建和全聚焦成像;步骤7,局部一致性优化;步骤8,全局融合。本发明能够提高聚焦堆栈重建的计算的效率、实现三维场景单体的高精度重建。

    基于频谱集中程度引入重参数化的光场去噪方法和装置

    公开(公告)号:CN116703770A

    公开(公告)日:2023-09-05

    申请号:CN202310684718.6

    申请日:2023-06-09

    Abstract: 本发明公开了一种基于频谱集中程度引入重参数化的光场去噪方法和装置,其包括:步骤1,通过极小化集中程度度量函数,计算重参数化光场双平面间距Dre;步骤2,按照重参数化光场双平面间距Dre对带噪光场进行重参数化,输出重参数化之后的带噪光场;步骤3,使用hyperfan滤波器对重参数化后的带噪光场进行去噪,输出去噪后的重参数化光场。本发明能够有较好的去噪效果,同时能够较好地保持场景边缘和反光等信息。

Patent Agency Ranking