网格划分与多尺度特征融合的密集小目标计数方法及装置

    公开(公告)号:CN119942449A

    公开(公告)日:2025-05-06

    申请号:CN202510023206.4

    申请日:2025-01-07

    Abstract: 本发明公开了一种网格划分与多尺度特征融合的密集小目标计数方法及装置,包括:步骤一,处理数据集;步骤二,根据近大远小原理,将输入图像划分为三个区域,在每一区域设置网格,按照不同大小的网格进行裁剪;步骤三,将图像切片进行特征提取,得到图像的多层次特征图;步骤四,将每一分支特征向其它分支特征维度对齐,通过动态生成特征融合权重,不同分支特征和对应的权重相乘再相加,输出低层分支融合特征、中间层分支融合特征和高层分支融合特征;步骤五,选择中间层分支融合特征和高层分支融合特征融合,输出预测点位置坐标和置信度分数,与真实点匹配,完成密集小目标计数。本发明能够提高远距离小目标的检测精度并优化计算效率。

    一种基于空角一致性光场抠图方法及装置

    公开(公告)号:CN114742847B

    公开(公告)日:2025-02-14

    申请号:CN202210405016.5

    申请日:2022-04-18

    Abstract: 本发明公开了一种基于空角一致性光场抠图方法及装置,其包括:步骤1,提取光场数据的中心子孔径图像并计算其视差;步骤2,计算中心子孔径图像alpha图;步骤3,通过光场alpha图传播模型,对中心子孔径图像alpha图进行传播,获取光场alpha图alphau,v(x,y)。通过采用本发明提供的方法,可以实现准确且具有一致性的光场抠图并评估其空角一致性。

    一种基于GPS数据的迁徙鸟类轨迹分割方法

    公开(公告)号:CN117171605A

    公开(公告)日:2023-12-05

    申请号:CN202311453699.2

    申请日:2023-11-03

    Abstract: 本发明公开了一种基于GPS数据的迁徙鸟类轨迹分割方法,其包括:步骤1,获取鸟类个体的GPS数据;步骤2,将GPS数据中不符合条件的数据去除,将剩下的数据按时间依正序排列,每一数据作为一个位点,获得的所有位点构成点集;步骤3,将点集进行聚类,获得多个聚类,再将聚类中的有效类划分成运动类或静止类,计算每一有效类的统计结果;步骤4,根据点集,采用停留点检测算法,获得多个类,再将该类划分成运动类或静止类,计算每一个类的统计结果;步骤5,对比步骤3和步骤4划分出的运动类和静止类的统计结果,选出最终的迁徙鸟类轨迹分割结果。本发明属于时空数据挖掘与处理技术领域,用于获得迁徙鸟类轨迹分割结果。

    基于辐射场表示和神经场参数化的光场高分辨重建方法

    公开(公告)号:CN116977181A

    公开(公告)日:2023-10-31

    申请号:CN202311065494.7

    申请日:2023-08-23

    Abstract: 本发明公开了一种基于辐射场表示和神经场参数化的光场高分辨重建方法,其包括:步骤1,构建用于表示场景的双平面光场,再将双平面光场表示为辐射场;步骤2,利用多层感知器对辐射场进行神经场参数化,建立双平面光场的神经辐射场;步骤3,利用高频映射编码和体素渲染优化训练双平面光场的神经辐射场;步骤4,利用优化后的双平面光场的神经辐射场对光场数据进行高分辨重建。本发明能够实现在对具有复杂不利条件的光场场景进行角度超分辨。

    一种分区域自适应匹配的光场数据深度重建方法

    公开(公告)号:CN110827338B

    公开(公告)日:2022-08-16

    申请号:CN201911063001.X

    申请日:2019-10-31

    Abstract: 本发明公开了一种分区域自适应匹配的光场数据深度重建方法,所述分区域自适应匹配的光场数据深度重建方法包括以下步骤:步骤110,定义中心视图与待匹配视图中的待匹配像素点的距离测度函数;步骤120,为不同区域的待匹配像素点选择不同的匹配窗口,其中,所述不同区域包括纹理区域、平滑区域和边缘遮挡区域;步骤130,统计匹配窗口正确匹配像素点的个数作为窗口的距离测度值,并在所述平滑区域加上平滑因子;步骤140,优化匹配视差,并计算场景深度。本发明能够在四维光场理论下实现高精度的深度重建。

    一种基于RGB-D特征匹配的3D点云拼接与融合方法

    公开(公告)号:CN108053367B

    公开(公告)日:2021-04-20

    申请号:CN201711293629.X

    申请日:2017-12-08

    Abstract: 本发明公开了一种基于RGB‑D特征匹配的3D点云拼接与融合方法,该方法主要包括:将不同视点的场景表面3D点云数据投影到RGB‑D图像进行处理,实现三维点云降至二维的降维计算;提取RGB‑D图像特征点,建立RGB‑D图像的特征描述,对不同视点RGB‑D图像进行匹配;求解坐标及深度变换矩阵,对RGB‑D图像进行拼接与融合;将拼接后的RGB‑D图像转化为3D点云数据。通过采用本发明提供的方法,可以简化三维点云特征提取和匹配的计算,提高三维点云拼接和融合的效率。可应用于3D大视场与3D全景的场景重建。

    一种由聚焦堆栈重建光场的反投影方法和装置

    公开(公告)号:CN106934110B

    公开(公告)日:2021-02-26

    申请号:CN201710090372.1

    申请日:2017-02-20

    Inventor: 邱钧 刘畅

    Abstract: 本发明公开了一种由聚焦堆栈重建光场的滤波反投影方法和装置,主要包括:给出四维光场与聚焦堆栈的几何关系,建立由光场形成聚焦堆栈的投影模型,形成投影算子;以投影模型为基础,建立四维光场与聚焦堆栈的频域关系,形成傅立叶切片关系;基于傅立叶切片关系,建立由聚焦堆栈重建光场的滤波反投影和卷积反投影方法;选取优化的滤波函数和卷积函数重建光场。本发明的聚焦堆栈是探测器和镜头相对移动采集得到的图像序列,通过选取优化的滤波函数和卷积函数,可重建出高精度的四维光场。四维光场可实现相机拍摄视角下的三维重构,可以为虚拟现实和几何测量提供精确的三维结构信息。

    一种基于聚焦堆栈单体数据子集架构的全局计算成像方法

    公开(公告)号:CN111598997A

    公开(公告)日:2020-08-28

    申请号:CN202010398746.8

    申请日:2020-05-12

    Inventor: 刘畅 邱钧 亢新凯

    Abstract: 本发明公开了一种基于聚焦堆栈单体数据子集架构的全局计算成像方法,该方法包括:步骤1,从场景图像聚焦堆栈数据中找出聚焦测度最大的场景图像;步骤2,在场景图像中划分所有单体区域对应的区域图像;步骤3,在最大聚焦测度的场景图像的单体区域图像上,找出单体区域;步骤4,利用单体区域找出第j个单体的聚焦堆栈数据;步骤5,在单体区域中选定代表区域,从第j个单体的聚焦堆栈数据的I个场景图像中筛选出V个场景图像,得到第j个单体的第v个图像和聚焦堆栈单体数据子集;步骤6,对单体进行深度重建和全聚焦成像;步骤7,局部一致性优化;步骤8,全局融合。本发明能够提高聚焦堆栈重建的计算的效率、实现三维场景单体的高精度重建。

Patent Agency Ranking