-
公开(公告)号:CN117171605A
公开(公告)日:2023-12-05
申请号:CN202311453699.2
申请日:2023-11-03
Applicant: 山东黄河三角洲国家级自然保护区管理委员会 , 北京信息科技大学
IPC: G06F18/23213 , G01S19/37
Abstract: 本发明公开了一种基于GPS数据的迁徙鸟类轨迹分割方法,其包括:步骤1,获取鸟类个体的GPS数据;步骤2,将GPS数据中不符合条件的数据去除,将剩下的数据按时间依正序排列,每一数据作为一个位点,获得的所有位点构成点集;步骤3,将点集进行聚类,获得多个聚类,再将聚类中的有效类划分成运动类或静止类,计算每一有效类的统计结果;步骤4,根据点集,采用停留点检测算法,获得多个类,再将该类划分成运动类或静止类,计算每一个类的统计结果;步骤5,对比步骤3和步骤4划分出的运动类和静止类的统计结果,选出最终的迁徙鸟类轨迹分割结果。本发明属于时空数据挖掘与处理技术领域,用于获得迁徙鸟类轨迹分割结果。
-
公开(公告)号:CN116977181A
公开(公告)日:2023-10-31
申请号:CN202311065494.7
申请日:2023-08-23
Applicant: 北京信息科技大学
IPC: G06T3/40
Abstract: 本发明公开了一种基于辐射场表示和神经场参数化的光场高分辨重建方法,其包括:步骤1,构建用于表示场景的双平面光场,再将双平面光场表示为辐射场;步骤2,利用多层感知器对辐射场进行神经场参数化,建立双平面光场的神经辐射场;步骤3,利用高频映射编码和体素渲染优化训练双平面光场的神经辐射场;步骤4,利用优化后的双平面光场的神经辐射场对光场数据进行高分辨重建。本发明能够实现在对具有复杂不利条件的光场场景进行角度超分辨。
-
公开(公告)号:CN116805015A
公开(公告)日:2023-09-26
申请号:CN202311075124.1
申请日:2023-08-25
IPC: G06F16/901 , G06F18/23 , G06Q10/047 , G06Q50/26
Abstract: 本发明公开了一种基于GPS跟踪数据的鸟类迁飞路线图论建模方法,其包括:步骤1,考虑鸟类的迁飞行为模式和停歇点的时空分布特征,根据GPS跟踪数据中的轨迹,构建自适应时空聚类模块,自适应时空聚类模块用于将相邻的合并状态段进行合并,并提取出合并状态段,获取候选停留点;步骤2,考虑鸟类迁飞的能量衰减系数,给出候选停留点之间的边的权重,进而建立鸟类迁飞路线的图模型#imgabs0#,V表示图模型G的节点集合,E表示连接图模型G的两个节点的边的集合。本发明用于分析、评估不同鸟类的迁飞路线。本发明属于时空数据的图形挖掘与处理技术领域。
-
公开(公告)号:CN110827338B
公开(公告)日:2022-08-16
申请号:CN201911063001.X
申请日:2019-10-31
Applicant: 山东黄河三角洲国家级自然保护区管理委员会 , 北京信息科技大学
Abstract: 本发明公开了一种分区域自适应匹配的光场数据深度重建方法,所述分区域自适应匹配的光场数据深度重建方法包括以下步骤:步骤110,定义中心视图与待匹配视图中的待匹配像素点的距离测度函数;步骤120,为不同区域的待匹配像素点选择不同的匹配窗口,其中,所述不同区域包括纹理区域、平滑区域和边缘遮挡区域;步骤130,统计匹配窗口正确匹配像素点的个数作为窗口的距离测度值,并在所述平滑区域加上平滑因子;步骤140,优化匹配视差,并计算场景深度。本发明能够在四维光场理论下实现高精度的深度重建。
-
公开(公告)号:CN108053367B
公开(公告)日:2021-04-20
申请号:CN201711293629.X
申请日:2017-12-08
Applicant: 北京信息科技大学
Abstract: 本发明公开了一种基于RGB‑D特征匹配的3D点云拼接与融合方法,该方法主要包括:将不同视点的场景表面3D点云数据投影到RGB‑D图像进行处理,实现三维点云降至二维的降维计算;提取RGB‑D图像特征点,建立RGB‑D图像的特征描述,对不同视点RGB‑D图像进行匹配;求解坐标及深度变换矩阵,对RGB‑D图像进行拼接与融合;将拼接后的RGB‑D图像转化为3D点云数据。通过采用本发明提供的方法,可以简化三维点云特征提取和匹配的计算,提高三维点云拼接和融合的效率。可应用于3D大视场与3D全景的场景重建。
-
公开(公告)号:CN106934110B
公开(公告)日:2021-02-26
申请号:CN201710090372.1
申请日:2017-02-20
Applicant: 北京信息科技大学
IPC: G06F30/20 , G06T17/00 , G06F111/10
Abstract: 本发明公开了一种由聚焦堆栈重建光场的滤波反投影方法和装置,主要包括:给出四维光场与聚焦堆栈的几何关系,建立由光场形成聚焦堆栈的投影模型,形成投影算子;以投影模型为基础,建立四维光场与聚焦堆栈的频域关系,形成傅立叶切片关系;基于傅立叶切片关系,建立由聚焦堆栈重建光场的滤波反投影和卷积反投影方法;选取优化的滤波函数和卷积函数重建光场。本发明的聚焦堆栈是探测器和镜头相对移动采集得到的图像序列,通过选取优化的滤波函数和卷积函数,可重建出高精度的四维光场。四维光场可实现相机拍摄视角下的三维重构,可以为虚拟现实和几何测量提供精确的三维结构信息。
-
公开(公告)号:CN111598997A
公开(公告)日:2020-08-28
申请号:CN202010398746.8
申请日:2020-05-12
Applicant: 北京信息科技大学
IPC: G06T17/00
Abstract: 本发明公开了一种基于聚焦堆栈单体数据子集架构的全局计算成像方法,该方法包括:步骤1,从场景图像聚焦堆栈数据中找出聚焦测度最大的场景图像;步骤2,在场景图像中划分所有单体区域对应的区域图像;步骤3,在最大聚焦测度的场景图像的单体区域图像上,找出单体区域;步骤4,利用单体区域找出第j个单体的聚焦堆栈数据;步骤5,在单体区域中选定代表区域,从第j个单体的聚焦堆栈数据的I个场景图像中筛选出V个场景图像,得到第j个单体的第v个图像和聚焦堆栈单体数据子集;步骤6,对单体进行深度重建和全聚焦成像;步骤7,局部一致性优化;步骤8,全局融合。本发明能够提高聚焦堆栈重建的计算的效率、实现三维场景单体的高精度重建。
-
公开(公告)号:CN106920267B
公开(公告)日:2020-07-17
申请号:CN201710110556.X
申请日:2017-02-28
Applicant: 北京信息科技大学
IPC: G06T11/00
Abstract: 本发明公开了一种基于对称权重场和旋转重建点的快速重建图像方法和装置,所述方法包括:建立图像重建几何模型,包括基于射线追踪的投影模型和基于重建点追踪的反投影模型;建立图像重建几何模型的权重场,给出图像重建几何模型的对称结构,结合扫描模式的旋转重建点离散化模型,将正演过程和反演过程归结为投影平面上的插值采样过程;图像重建离散化几何模型的对称结构性质:不同的投影角度下的正演过程和反演过程的具有相同的计算,简化计算提高重建速度;基于对称权重场和旋转重建点,建立图像重建快速方法。采用本发明的方案,实现计算机断层技术的快速重建,可以为医学CT、工业无损检测和地质勘探等应用领域更快地重建出高精度图像。
-
公开(公告)号:CN108053468A
公开(公告)日:2018-05-18
申请号:CN201711293627.0
申请日:2017-12-08
Applicant: 北京信息科技大学
IPC: G06T17/00 , H04N13/207 , H04N13/271 , H04N5/232
Abstract: 本发明公开了一种单目视觉聚焦堆栈采集与场景重建方法,其包括:通过电控旋转器控制定焦镜头的转动,采集聚焦堆栈数据;在定焦镜头的转动的过程中,固定探测器,并沿相机的光轴同步平移定焦透镜;根据对定焦镜头的位置调整,建立电控旋转器的转动角度与成像面深度的对应关系;根据电控旋转器的转动角度和成像面深度的对应关系,并结合透镜成像的物像关系,建立电控旋转器的转动角度与聚焦物面深度之间的对应关系;根据电控旋转器的转动角度与聚焦物面深度之间的对应关系,利用极大化聚焦测度泛函计算每一物点的深度,输出场景深度图和全聚焦图,以重构三维场景。本发明能够来满足对相机拍摄视场(FOV)下三维场景重构、图像深度信息和全聚焦的需求,生成深度图和全聚焦图像。
-
公开(公告)号:CN107945221A
公开(公告)日:2018-04-20
申请号:CN201711293626.6
申请日:2017-12-08
Applicant: 北京信息科技大学
IPC: G06T7/33
CPC classification number: G06T7/344 , G06T2207/10024
Abstract: 本发明公开了一种基于RGB-D图像的三维场景特征表达与高精度匹配方法,利用透视投影模型和尺度空间理论,检测并提取RGB-D图像的三维特征点;利用圆的旋转不变性,为每一个特征点选定以其为圆心的四个同心圆区域为此特征点所需的特征描述区域;在每个圆环区域以及最里面的中心圆区域内分别计算像素点的梯度模值和方向,建立方向直方图,其中,“圆环区域”为相邻的两同心圆之间的环形区域;利用方向直方图,建立环形描述子,对每一个特征点进行特征描述,生成特征向量,并根据特征向量间的欧式距离匹配特征点。通过采用本发明提供的方法,对RGB-D图像进行三维特征表达与匹配,避免了主方向的分配、降低特征向量的维数,为后续特征匹配降低了计算量、节省了时间,实现特征匹配的实时性。
-
-
-
-
-
-
-
-
-