一种无地图下室内行人定位与追踪方法

    公开(公告)号:CN110631578B

    公开(公告)日:2021-06-08

    申请号:CN201910931570.5

    申请日:2019-09-29

    Abstract: 本发明公开了一种无地图下室内行人定位与追踪方法,通过融合视频和惯性导航数据,将行人的运动描述为一条语义轨迹,并同时根据视频数据建立简易的语义描述地图,建立语义描述地图和语义描述轨迹的匹配对应关系,从而将二者匹配,以此来修正原始行人轨迹,并实现无地图下的自主定位与追踪。本发明从定位与追踪的结果出发,关注于定位的最终效果,能在建立起来的语义地图中找到行人的位置,属于一种相对定位方法。本发明只需存储描述性的地图,而非三维场景图,大大节省的计算存储空间,可在轻量级的智能设备端上使用,还具有可在场景可变的室内环境下使用的特点,具有广阔的应用前景。

    基于GRNN-AdaBoost的多设备融合定位方法

    公开(公告)号:CN110572772B

    公开(公告)日:2020-12-08

    申请号:CN201910861355.2

    申请日:2019-09-12

    Abstract: 本发明公开了一种基于GRNN‑AdaBoost的多设备融合定位方法,其包括获取智能手机和智能手表采集的用户运动轨迹的惯导数据,并对智能手机和智能手表的惯导数据进行预处理得到测试样本;将测试样本输入采用自适应增强算法训练的GRNN网络模型中,并输出GRNN网络的多个强回归预测器得到的预测值;选取多个强回归预测器得到的预测值的中值作为用户最终的定位坐标。本方案的定位方法通过由多个强回归预测器组成的GRNN网络预测智能手机与智能手表收集的惯导数据的预测值,在通过取中值的方式就可以得到最终的准确位置。

    一种无地图下室内行人定位与追踪方法

    公开(公告)号:CN110631578A

    公开(公告)日:2019-12-31

    申请号:CN201910931570.5

    申请日:2019-09-29

    Abstract: 本发明公开了一种无地图下室内行人定位与追踪方法,通过融合视频和惯性导航数据,将行人的运动描述为一条语义轨迹,并同时根据视频数据建立简易的语义描述地图,建立语义描述地图和语义描述轨迹的匹配对应关系,从而将二者匹配,以此来修正原始行人轨迹,并实现无地图下的自主定位与追踪。本发明从定位与追踪的结果出发,关注于定位的最终效果,能在建立起来的语义地图中找到行人的位置,属于一种相对定位方法。本发明只需存储描述性的地图,而非三维场景图,大大节省的计算存储空间,可在轻量级的智能设备端上使用,还具有可在场景可变的室内环境下使用的特点,具有广阔的应用前景。

    基于GRNN-AdaBoost的多设备融合定位方法

    公开(公告)号:CN110572772A

    公开(公告)日:2019-12-13

    申请号:CN201910861355.2

    申请日:2019-09-12

    Abstract: 本发明公开了一种基于GRNN-AdaBoost的多设备融合定位方法,其包括获取智能手机和智能手表采集的用户运动轨迹的惯导数据,并对智能手机和智能手表的惯导数据进行预处理得到测试样本;将测试样本输入采用自适应增强算法训练的GRNN网络模型中,并输出GRNN网络的多个强回归预测器得到的预测值;选取多个强回归预测器得到的预测值的中值作为用户最终的定位坐标。本方案的定位方法通过由多个强回归预测器组成的GRNN网络预测智能手机与智能手表收集的惯导数据的预测值,在通过取中值的方式就可以得到最终的准确位置。

Patent Agency Ranking