基于语义信息的特征点匹配方法及系统

    公开(公告)号:CN113159043B

    公开(公告)日:2024-04-30

    申请号:CN202110356592.0

    申请日:2021-04-01

    Applicant: 北京大学

    Abstract: 本发明涉及一种基于语义信息的特征点匹配方法及系统。本发明首先利用语义分割结果对特征点匹配进行约束,证明了语义信息可以提高特征点的稳定性;为了更好地在特征点中融入图像高层语义信息,本发明进一步设计了一个特征点提取网络,可以同时进行特征点检测和特征描述子生成。和传统特征点相比,本发明提取的特征点可以将图像多尺度的特征进行结合,面对复杂场景更加稳定。本发明与传统方法相比具有更高的准确率,利用深度神经网络提取的特征点在室外场景下具有很好的鲁棒性,可以代替传统算法集成到实际系统中,对于光照、视角变化等场景也具有适用性。

    用于相机标定的方法及所用的彩色参照物

    公开(公告)号:CN100492413C

    公开(公告)日:2009-05-27

    申请号:CN02146512.6

    申请日:2002-10-18

    Applicant: 北京大学

    Abstract: 一种用于相机标定的方法,包括步骤:将待拍摄物体放置在圆柱体参照物的上方;定位校准点的图像坐标;使用TSAI方法恢复拍摄每幅照片时相机的内外参数。本发明具有参照物无遮挡、阴影效果小、校准点不共面、拍摄过程简单、自动检测结果准确等优点。可以应用于物体全景图的拼接、基于图像的建模等各种需要相机标定的场合,设备的实现非常简单、无需复杂贵重的仪器配件,具有很强的实用价值。

    用于相机标定的方法及所用的彩色参照物

    公开(公告)号:CN1490765A

    公开(公告)日:2004-04-21

    申请号:CN02146512.6

    申请日:2002-10-18

    Applicant: 北京大学

    Abstract: 一种用于相机标定的方法,包括步骤:将待拍摄物体放置在圆柱体参照物的上方;定位校准点的图像坐标;使用TSAI方法恢复拍摄每幅照片时相机的内外参数。本发明具有参照物无遮挡、阴影效果小、校准点不共面、拍摄过程简单、自动检测结果准确等优点。可以应用于物体全景图的拼接、基于图像的建模等各种需要相机标定的场合,设备的实现非常简单、无需复杂贵重的仪器配件,具有很强的实用价值。

    一种面向三维重建的特征点匹配方法及系统

    公开(公告)号:CN113095371A

    公开(公告)日:2021-07-09

    申请号:CN202110301050.3

    申请日:2021-03-22

    Applicant: 北京大学

    Abstract: 本发明公开了一种面向三维重建的特征点匹配方法及系统。本发明的特征点匹配方法步骤包括:1)输入待匹配的两视图图像或者多视图图像;对输入的每一图像执行特征点检测及语义特征提取,得到每幅图像对应的特征描述子;2)采用结合局部邻域信息的匹配对筛选网络对待配对图像的特征点进行匹配和筛选;3)采用RANSAC方法对步骤2)处理后保留的匹配对进行进一步的筛选,并得到最终的匹配对。本发明能够提升三维重建出的三维模型/场景的精度和质量。

    新型异步流水线地形绘制方法

    公开(公告)号:CN101697226B

    公开(公告)日:2012-01-18

    申请号:CN200910236281.X

    申请日:2009-10-23

    Applicant: 北京大学

    Abstract: 本发明公开了一种新型异步流水线地形绘制方法,属于数字化地形绘制技术领域。本发明方法的绘制流水线按先后顺序包括准备数据,CPU操作和GPU操作三个步骤,所述方法在同一时刻包括三个并行的所述绘制流水线,所述三个流水线在同一时刻不进行相同的所述步骤。所述准备数据步骤包括向本地磁盘或网络请求数据和接收数据和组织数据。所述CPU操作步骤包括建树和几何网格化操作。本发明可用地形绘制,具有速度快,解决延迟,帧率稳定以及可控等优势。

    利用移动拍摄设备进行动态纹理采集及虚实融合的方法

    公开(公告)号:CN102157011A

    公开(公告)日:2011-08-17

    申请号:CN201010598597.6

    申请日:2010-12-10

    Applicant: 北京大学

    Abstract: 本发明公开了一种利用移动拍摄设备进行动态纹理采集及虚实融合的方法,属于人机交互、虚拟现实、计算机图形学和计算机视觉等技术领域。该方法包括:a)移动拍摄设备获取拍摄地点的位置和方向;b)移动拍摄设备根据所述位置和方向以及移动拍摄设备中的拍摄参数在屏幕中呈现虚拟影像;c)移动拍摄设备进行影像取景,将真实影像和虚拟影像同时呈现于屏幕,调整真实视点和虚拟视点中的一个或两个,使真实视点和虚拟视点重合;d)将真实影像上传至数据服务器,数据服务器融合影像并更新虚拟场景的影像数据。本发明可用于虚拟现实系统。

    一种面向三维重建的特征点匹配方法及系统

    公开(公告)号:CN113095371B

    公开(公告)日:2023-01-17

    申请号:CN202110301050.3

    申请日:2021-03-22

    Applicant: 北京大学

    Abstract: 本发明公开了一种面向三维重建的特征点匹配方法及系统。本发明的特征点匹配方法步骤包括:1)输入待匹配的两视图图像或者多视图图像;对输入的每一图像执行特征点检测及语义特征提取,得到每幅图像对应的特征描述子;2)采用结合局部邻域信息的匹配对筛选网络对待配对图像的特征点进行匹配和筛选;3)采用RANSAC方法对步骤2)处理后保留的匹配对进行进一步的筛选,并得到最终的匹配对。本发明能够提升三维重建出的三维模型/场景的精度和质量。

    同时定位与建图技术中的特征点提取与匹配方法及系统

    公开(公告)号:CN109509211B

    公开(公告)日:2021-11-16

    申请号:CN201811138259.7

    申请日:2018-09-28

    Applicant: 北京大学

    Abstract: 本发明涉及一种同时定位与建图技术中的特征点提取与匹配方法及系统。该方法对于视频中关键帧图像的第一帧提取n个FAST角点,并选取响应值前k大的FAST角点提取BRIEF特征;对于第二帧至最后一帧中的每一帧,提取k个FAST角点并提取BRIEF特征,将该k个FAST角点作为特征点和之前的帧已经重建出的三维点云或之前的帧所提取出的特征点进行匹配,计算相机位姿。该方法让一部分特征点匹配的过程用光流代替以提高运行速度,应用光流法跟踪未提取BRIEF特征的角点,节省了特征点提取描述子的时间。本发明在保证特征点提取速度的同时能够利于重建更加稠密的点云,并使得特征点的分布更加均匀。

    基于语义信息的特征点匹配方法及系统

    公开(公告)号:CN113159043A

    公开(公告)日:2021-07-23

    申请号:CN202110356592.0

    申请日:2021-04-01

    Applicant: 北京大学

    Abstract: 本发明涉及一种基于语义信息的特征点匹配方法及系统。本发明首先利用语义分割结果对特征点匹配进行约束,证明了语义信息可以提高特征点的稳定性;为了更好地在特征点中融入图像高层语义信息,本发明进一步设计了一个特征点提取网络,可以同时进行特征点检测和特征描述子生成。和传统特征点相比,本发明提取的特征点可以将图像多尺度的特征进行结合,面对复杂场景更加稳定。本发明与传统方法相比具有更高的准确率,利用深度神经网络提取的特征点在室外场景下具有很好的鲁棒性,可以代替传统算法集成到实际系统中,对于光照、视角变化等场景也具有适用性。

    一种航拍影像三维重建的全局运动初始化方法和系统

    公开(公告)号:CN109493415A

    公开(公告)日:2019-03-19

    申请号:CN201811101135.1

    申请日:2018-09-20

    Applicant: 北京大学

    Abstract: 本发明涉及一种航拍影像三维重建的全局运动初始化方法和系统。该方法包括:1)对连续帧图像进行特征提取,并对提取的特征点进行匹配;2)基于连续帧图像的特征点计算相机旋转量;3)计算连续帧图像的相机光心在世界坐标系的位置;4)根据计算出的相机旋转量和光心位置,进行三维点云的重建。本发明能够计算出所有相机位姿、并且具有能够实现快速求解的特点,实现了同时定位与建图的快速初始化;基于此初始化方法,航拍影像所对应的场景的三维模型重建缺失的部分可以得到补齐。

Patent Agency Ranking