-
公开(公告)号:CN111080699B
公开(公告)日:2023-10-20
申请号:CN201911277617.7
申请日:2019-12-11
Applicant: 中国科学院自动化研究所
IPC: G06T7/73 , G06N3/0442 , G06N3/08
Abstract: 本发明涉及图像处理技术领域,具体涉及一种基于深度学习的单目视觉里程计方法及系统。为了解决现有技术确定机器人的位置和姿态精度较低的问题,本发明提出一种基于深度学习的单目视觉里程计方法,包括基于单目相机所获取的多个运动图像,通过预设的图像特征提取模型,获取所述运动图像的运动特征信息;基于所述运动特征信息,通过预设的位姿估计模型,获取所述单目相机的位姿信息。本发明的方法为了使网络输出位姿的结果更精确,同时提高网络的泛化性能,采用多任务学习的方式,在估计位姿的同时预测相邻帧的光流,从而辅助主任务的学习。相比其他基于深度学习的单目里程计方法,本申请的方法具有更高的精度。
-
公开(公告)号:CN110956665B
公开(公告)日:2023-06-23
申请号:CN201911307058.X
申请日:2019-12-18
Applicant: 中国科学院自动化研究所
Abstract: 本发明属于多传感器融合定位导航技术领域,具体涉及了一种车辆拐弯轨迹双向计算方法、系统、装置,旨在解决现有技术车辆拐弯之前轨迹计算精度较低的问题。本发明包括:获取图片特征点、传感器量测值,存储并更新滑动窗口;进行系统初始化;当新图像加入滑动窗口,优化传感器位姿等参数直到车辆拐弯;当新图像加入滑动窗口,优化传感器位姿和偏移等参数直到加速度计偏移估计值收敛;当新图像加入滑动窗口优化所有参数;开辟反向计算线程,从当前位置开始,按照时间从后向前的顺序计算拐弯之前的轨迹。本发明通过正向线程多次进行拐弯后轨迹优化,并开辟反向线程计算拐弯前轨迹,可以获取拐弯前后高精度轨迹,并可实现无GPS下的准确定位导航。
-
公开(公告)号:CN112344922B
公开(公告)日:2022-10-21
申请号:CN202011153385.7
申请日:2020-10-26
Applicant: 中国科学院自动化研究所
Abstract: 本发明涉及一种单目视觉里程计定位方法及系统,所述单目视觉里程计定位方法包括:获取训练数据集,所述训练数据集包括多个视频序列,各视频序列包括多帧连续图像;根据各视频序列,建立单目视觉里程计定位模型;具体包括:对各相邻帧图像进行堆叠处理后,得到对应的堆叠图像;通过FlowNet编码器,从各堆叠图像中提取高维特征;通过LCGR模块,从所述高维特征中依次提取局部信息和全局信息;根据所述局部信息和全局信息,通过全连接回归处理,得到相对位姿;基于所述单目视觉里程计定位模型,根据待测视频序列,可准确确定相对位姿,提高定位精度。
-
公开(公告)号:CN111080699A
公开(公告)日:2020-04-28
申请号:CN201911277617.7
申请日:2019-12-11
Applicant: 中国科学院自动化研究所
Abstract: 本发明涉及图像处理技术领域,具体涉及一种基于深度学习的单目视觉里程计方法及系统。为了解决现有技术确定机器人的位置和姿态精度较低的问题,本发明提出一种基于深度学习的单目视觉里程计方法,包括基于单目相机所获取的多个运动图像,通过预设的图像特征提取模型,获取所述运动图像的运动特征信息;基于所述运动特征信息,通过预设的位姿估计模型,获取所述单目相机的位姿信息。本发明的方法为了使网络输出位姿的结果更精确,同时提高网络的泛化性能,采用多任务学习的方式,在估计位姿的同时预测相邻帧的光流,从而辅助主任务的学习。相比其他基于深度学习的单目里程计方法,本申请的方法具有更高的精度。
-
公开(公告)号:CN108564652B
公开(公告)日:2020-02-14
申请号:CN201810200698.X
申请日:2018-03-12
Applicant: 中国科学院自动化研究所
Abstract: 本发明涉及计算机视觉领域的三维重建方法,具体涉及一种高效利用内存的高精度三维重建方法与系统及设备,旨在降低内存占用。本发明的高精度三维重建方法,包括:获取一帧当前的深度图像,计算各像素对应的相机坐标系下的三维点和法向量、深度噪声的标准差和深度梯度;基于深度梯度检测深度图中的平面信息,并基于平面信息对深度图降噪;通过ICP算法配准当前的深度图和三维模型在前一帧视角下的深度图,计算相机姿态;分配实际表面附近的体素并通过哈希表检索已分配的体素,之后将深度图融合到TSDF模型中;将融合得到的体数据在特定相机姿态下进行光线投影得到表面点云。本方法能够生成高精度的重建模型,同时节省内存占用。
-
公开(公告)号:CN110310362A
公开(公告)日:2019-10-08
申请号:CN201910551306.9
申请日:2019-06-24
Applicant: 中国科学院自动化研究所 , 北京牡丹电子集团有限责任公司宁安智慧工程中心
Abstract: 本发明属于计算机视觉及三维重建领域,具体涉及了一种基于深度图及IMU的高动态场景三维重建方法、系统,旨在解决移动设备无法实现高动态场景三维重建的问题。本发明方法包括:对采集的当前帧深度图进行转换;结合IMU数据积分后的旋转度矩阵进行图像背景分割;基于前一帧的相机姿态以及当前帧的背景分割结果进行当前相机姿态跟踪;根据当前相机姿态以及图像进行体数据融合;最后根据体数据信息进行三维渲染获得高动态场景三维模型。本发明能够高效的借助彩色信息、深度信息和IMU信息进行动态/静态分割,并消除模型中的动态体素,可以实现含有动态物体的场景的移动设备上快速鲁棒的三维重建。
-
公开(公告)号:CN103854291B
公开(公告)日:2017-08-29
申请号:CN201410123114.5
申请日:2014-03-28
Applicant: 中国科学院自动化研究所
IPC: G06T7/80
Abstract: 本发明公开了一种四自由度双目视觉系统中的摄像机标定方法,该方法包括以下步骤:使用基于平面模板的标定方法估计四自由度双目视觉系统中左、右摄像机的内参数;计算双目视觉系统初始姿态下左右摄像机的外参数;估计左摄像机的水平旋转轴和垂直旋转轴,以及右摄像机的水平旋转轴和垂直旋转轴;计算当前姿态下左右两摄像机的外参数。利用本发明的技术方案,给定当前姿态下每个摄像机分别绕两个旋转轴旋转的度数,能够有效计算出两摄像机对应的摄像机内、外参数。
-
公开(公告)号:CN104200523A
公开(公告)日:2014-12-10
申请号:CN201410460622.2
申请日:2014-09-11
Applicant: 中国科学院自动化研究所
IPC: G06T17/00
Abstract: 一种融合附加信息的大场景三维重建方法,包括:提取所有图像的SIFT点,进行图像匹配,构建外极几何图,得到对应于所有三维场景点的轨迹;根据惯性测量单元信息或者指南针角度得到每幅图像的初始摄像头旋转矩阵,迭代地搜寻外极几何图中当前可靠的连接边,并利用这些边进行全局优化;初始化摄像头的中心为对应图像的GPS,根据图像初始焦距信息,旋转矩阵和摄像头中心位置得到每幅图像的初始投影矩阵,根据这些投影矩阵和三维场景点轨迹迭代地三角化和捆绑调整。本发明方法计算迅速,得到的三维场景合理可靠,对图像误匹配敏感度低,泛化性能强,对有序和无序图像集都适用。
-
公开(公告)号:CN119594977A
公开(公告)日:2025-03-11
申请号:CN202411729070.0
申请日:2024-11-28
Applicant: 中国科学院自动化研究所
IPC: G01C21/20 , G01C21/34 , G06V20/10 , G06V10/44 , G06V10/74 , G06N3/0455 , G06N3/0464 , G06N3/088
Abstract: 本申请属于一种机器人导航方法,针对现有的导航或探索方法存在难以在非结构场景中建立几何地图,依赖于来自激光雷达数据的标签,容易忽略远距离特征,以及推理时间缓慢的技术问题,提供一种基于对比学习的机器人视觉导航方法及相关装置,获取当前观测后,输入至训练后的观测编码器得到对应的特征向量,再使预选的批量动作序列经过动作编码器提取出对应的特征向量,通过向量内积计算当前观测和各动作序列之间的相似度,选出相似度最高的动作序列,输入至机器人控制器中用于控制机器人执行相应动作。与直接生成动作序列的方法相比,选择一个动作序列的难度更小,拓展性和泛化性更好。
-
公开(公告)号:CN113643366B
公开(公告)日:2024-03-05
申请号:CN202110786137.4
申请日:2021-07-12
Applicant: 中国科学院自动化研究所
IPC: G06T7/73 , G06V10/25 , G06V10/80 , G06V10/82 , G06N3/0464
Abstract: 本发明提供一种多视角三维对象姿态估计方法及装置。该方法包括:获取多视角对象图像,将所述多视角对象图像输入到预设的目标检测网络模型中提取对象包围框,并基于所述对象包围框处理所述多视角对象图像,得到多视角目标图像;将所述多视角目标图像输入到预设的极线特征融合网络模型中融合多视角目标图像特征,得到相应的关节点置信图;基于所述关节点置信图确定各视角下的二维对象姿态;基于所述二维对象姿态和预设的相机参数确定三维对象姿态。采用本发明公开的方法,通过极线特征融合,提高了对自遮挡和相似结构关节点的检测准确度,可在部署少量相机时取得更准确的三维对象姿
-
-
-
-
-
-
-
-
-