一种基于WiFi与视觉融合的SLAM方法

    公开(公告)号:CN113490146B

    公开(公告)日:2022-04-22

    申请号:CN202110497977.9

    申请日:2021-05-08

    Applicant: 湖南大学

    Inventor: 孙炜 唐晨俊

    Abstract: 本发明提出一种基于WiFi与视觉融合的SLAM方法,包括如下步骤:规划室内环境路径,并设定起始点;移动机器人沿所设路径进行数据采集,同时采集WiFi和图像数据;建立WiFi‑SLAM地图;建立视觉SLAM地图;将移动机器人放置室内环境的任意位置,采集当前时刻的WiFi数据和图像数据;匹配WiFi和图像确定当前时刻位置;移动机器人移动位置获取下一时刻数据并进行位置确定及更新。本发明所提供的SLAM技术的能有效提高SLAM技术的鲁棒性及精确性。

    一种基于WIFI和视觉集成的室内定位方法

    公开(公告)号:CN113382376A

    公开(公告)日:2021-09-10

    申请号:CN202110498071.9

    申请日:2021-05-08

    Applicant: 湖南大学

    Inventor: 孙炜 唐晨俊

    Abstract: 本发明提出一种基于WIFI和视觉集成的室内定位方法,包括如下步骤:采集WIFI‑视觉指纹数据库,构建均匀网格指纹点,在每个指纹点处采集WIFI数据以及周围全方位的图像数据;在定位区域内任意位置采集WIFI数据以及多方位的图像数据,整个定位过程分为WIFI指纹粗定位和视觉指纹精定位;在WIFI粗定位阶段,提出基于斜率搜索的自适应KNN算法来智能获取样本个数K的取值,将WIFI数据与离线指纹数据进行匹配,得到候选点;在视觉精定位阶段,基于WIFI算法得到的候选点结果,提出一种多角度的无监督融合视觉定位算法,对各方向的图像所估计的位置得到相应权重值,从而实现定位。本发明有效的将WIFI与视觉集成起来,在各定位性能上具备一定的竞争力。

    一种基于高斯聚类与混合度量的WiFi指纹的室内定位方法

    公开(公告)号:CN112887902B

    公开(公告)日:2021-12-21

    申请号:CN202110093814.4

    申请日:2021-01-22

    Applicant: 湖南大学

    Abstract: 本发明公开一种基于高斯聚类与混合度量的WiFi指纹的室内定位方法,包括离线数据模型训练和在线位置预测,离线模型训练过程包括:1)指纹数据库预处理;2)使用高斯聚类在定位空间划分子区域;3)训练一个高准确率的随机森林分类器;在线位置预测阶段包括:4)通过随机森林分类器得到指纹所在的子区域;5)依据混合度量标准计算指纹点之间的差异度;6)在子区域中使用自适应KNN算法得到用户的位置预测结果。该方法可快速准确的进行室内定位,通过高斯聚类划分子区间,有效地解决RSS的空间歧义性,使用随机森林分类器减少指纹预测所需的数据匹配次数,提高预测速度,以指纹的混合度量作为指纹间差异度的评判标准,更具鲁棒性和稳定性,提高定位精度。

    一种基于WiFi与视觉融合的SLAM方法

    公开(公告)号:CN113490146A

    公开(公告)日:2021-10-08

    申请号:CN202110497977.9

    申请日:2021-05-08

    Applicant: 湖南大学

    Inventor: 孙炜 唐晨俊

    Abstract: 本发明提出一种基于WiFi与视觉融合的SLAM方法,包括如下步骤:规划室内环境路径,并设定起始点;移动机器人沿所设路径进行数据采集,同时采集WiFi和图像数据;建立WiFi‑SLAM地图;建立视觉SLAM地图;将移动机器人放置室内环境的任意位置,采集当前时刻的WiFi数据和图像数据;匹配WiFi和图像确定当前时刻位置;移动机器人移动位置获取下一时刻数据并进行位置确定及更新。本发明所提供的SLAM技术的能有效提高SLAM技术的鲁棒性及精确性。

    一种基于WiFi与视觉融合室内定位方法

    公开(公告)号:CN113490137A

    公开(公告)日:2021-10-08

    申请号:CN202110498068.7

    申请日:2021-05-08

    Applicant: 湖南大学

    Inventor: 孙炜 唐晨俊

    Abstract: 本发明提出一种WiFi和视觉融合的室内定位方法,包括如下步骤:在室内定位区域中设定指纹点,同时采集WiFi数据和图像数据,并构建离线指纹库;在室内定位区域内任意位置设定待测点,并同时采集该点的WiFi数据和图像数据;采用WiFi定位算法筛选出WiFi候选点集;将WiFi候选点集的结果作为限制范围,采用图像定位算法筛选出图像候选点集;采用融合定位算法将WiFi估计位置与图像估计位置进行融合,从而实现室内定位。

    一种WiFi和视觉多源融合的移动机器人室内定位方法

    公开(公告)号:CN112325883A

    公开(公告)日:2021-02-05

    申请号:CN202011121060.0

    申请日:2020-10-19

    Applicant: 湖南大学

    Inventor: 孙炜 唐晨俊

    Abstract: 本发明提供一种WiFi和视觉多源融合的移动机器人室内定位方法,包括如下步骤:采集室内定位空间中的WiFi信息和图像信息,进行预处理后,建立WiFi地图和视觉SLAM地图;对多个地标分别计算在所述WiFi地图和所述视觉SLAM地图中的位置信息,并采用指纹地标法建立所述WiFi地图和所述视觉SLAM地图的映射关系,使所述WiFi地图和所述视觉SLAM地图融合;移动机器人处于定位空间内的任一位置时,采用基于信息增益的KNN指纹定位算法利用所述WiFi地图进行WiFi定位;采用图像的特征匹配算法利用所述视觉SLAM地图进行视觉SLAM定位;将WiFi定位与视觉SLAM定位中的视觉词袋技术融合实现粗定位;以粗定位的范围作为约束条件采用视觉SLAM定位实现精确定位。本发明提供的定位方法定位精度高。

    一种信号选择及位置校正的无线室内定位方法

    公开(公告)号:CN110493867A

    公开(公告)日:2019-11-22

    申请号:CN201910568709.4

    申请日:2019-06-27

    Applicant: 湖南大学

    Abstract: 本发明公开了一种信号选择及位置校正的无线室内定位方法,包含以下步骤:步骤一、在部署阶段,建立室内定位空间的WiFi指纹数据库;步骤二、基于检测到的AP,构建AP选择策略,通过筛选AP,保留定位贡献度较高的接入点子集,以减小部分低效AP对定位性能的影响;步骤三、对在线阶段确定的位置进行定位校正,在线定位时,通过对校正指纹进行分析,进一步减小异常在线指纹产生的定位误差。本发明通过计算不同AP的定位贡献度,有效提取出信息度更强的AP子集,确保定位精度的同时,减小低效AP对定位误差的影响;本发明通过对在线指纹确定的较大误差进行校正,给不同校正指纹分配不同的置信系数,进一步减小了定位误差,提高定位精度。

    一种基于WIFI与视觉融合的室内定位方法

    公开(公告)号:CN112887911B

    公开(公告)日:2022-03-15

    申请号:CN202110066411.0

    申请日:2021-01-19

    Applicant: 湖南大学

    Inventor: 孙炜 唐晨俊

    Abstract: 本发明提出一种基于WIFI与视觉融合的室内定位方法,包括如下步骤:采集粗指纹点的WIFI数据;计算粗指纹点的WIFI数据的平均绝对误差,采用插值法建立扩展误差矩阵,计算得到梯度误差矩阵,依据梯度误差矩阵建立自适应指纹网格点,采集自适应指纹网格点的WIFI数据和图像数据建立离线数据库;将移动机器人放置于室内定位区域内的任意位置,采集当前位置点的WIFI数据和图像数据,并采用WIFI定位算法和图像匹配定位算法与离线数据库进行匹配,得到移动机器人位置的估计概率;通过斜率法筛选出可能性较大的多个估计位置,建立无监督融合系统,得到各估计位置的权重值,实现移动机器人位置的最终定位。本发明所提供的定位方法的定位准确率和定位稳定性得到显著提升。

    一种基于WIFI与视觉融合的室内定位方法

    公开(公告)号:CN112887911A

    公开(公告)日:2021-06-01

    申请号:CN202110066411.0

    申请日:2021-01-19

    Applicant: 湖南大学

    Inventor: 孙炜 唐晨俊

    Abstract: 本发明提出一种基于WIFI与视觉融合的室内定位方法,包括如下步骤:采集粗指纹点的WIFI数据;计算粗指纹点的WIFI数据的平均绝对误差,采用插值法建立扩展误差矩阵,计算得到梯度误差矩阵,依据梯度误差矩阵建立自适应指纹网格点,采集自适应指纹网格点的WIFI数据和图像数据建立离线数据库;将移动机器人放置于室内定位区域内的任意位置,采集当前位置点的WIFI数据和图像数据,并采用WIFI定位算法和图像匹配定位算法与离线数据库进行匹配,得到移动机器人位置的估计概率;通过斜率法筛选出可能性较大的多个估计位置,建立无监督融合系统,得到各估计位置的权重值,实现移动机器人位置的最终定位。本发明所提供的定位方法的定位准确率和定位稳定性得到显著提升。

    一种基于高斯聚类与混合度量的WiFi指纹的室内定位方法

    公开(公告)号:CN112887902A

    公开(公告)日:2021-06-01

    申请号:CN202110093814.4

    申请日:2021-01-22

    Applicant: 湖南大学

    Abstract: 本发明公开一种基于高斯聚类与混合度量的WiFi指纹的室内定位方法,包括离线数据模型训练和在线位置预测,离线模型训练过程包括:1)指纹数据库预处理;2)使用高斯聚类在定位空间划分子区域;3)训练一个高准确率的随机森林分类器;在线位置预测阶段包括:4)通过随机森林分类器得到指纹所在的子区域;5)依据混合度量标准计算指纹点之间的差异度;6)在子区域中使用自适应KNN算法得到用户的位置预测结果。该方法可快速准确的进行室内定位,通过高斯聚类划分子区间,有效地解决RSS的空间歧义性,使用随机森林分类器减少指纹预测所需的数据匹配次数,提高预测速度,以指纹的混合度量作为指纹间差异度的评判标准,更具鲁棒性和稳定性,提高定位精度。

Patent Agency Ranking