一种基于锚点图像的地下停车场多尺度场景识别方法

    公开(公告)号:CN114299462A

    公开(公告)日:2022-04-08

    申请号:CN202111627216.7

    申请日:2021-12-28

    Abstract: 本发明只需分为节点式地图构建阶段和多尺度场景识别阶段。首先构建包含前视和仰视视角图像特征的节点式地图。将地下停车场平均切割若干个地图子块,每个地图子块构建一个节点,每个节点包含前视和仰视的图像特征,所构建的节点式地图表征地下停车场。再将数个地图子块拼接成一个区域,在区域中选取一个具有代表性的节点作为锚点节点,该锚点节点的图像特征能有效表征所在的区域特征。在定位阶段,首先以前视图像特征为匹配依据,将待定位位置与所有锚点节点进行匹配,定位到该节点所在的区域,实现初定位。再以仰视图像特征为匹配依据,定位到距离待定位位置最近的一个地图节点,实现场景识别。

    一种snap-drift布谷鸟搜索算法优化灰色神经网络的预测方法

    公开(公告)号:CN112365067A

    公开(公告)日:2021-02-12

    申请号:CN202011286723.4

    申请日:2020-11-17

    Abstract: 本发明公开一种snap‑drift布谷鸟搜索算法优化灰色神经网络的预测方法,所述方法包括:获取初选集合;计算每个寄生巢的适应度值,确定适应度值的最小值;判断所述更新次数是否小于迭代次数;若小于所述迭代次数,则通过变量J选择不同的更新算子对当前每个寄生巢中的鸟蛋进行更新求解;局部搜索,更新寄生巢;基于概率Pa来选择最差的寄生巢;全局搜索,更新每个废弃的寄生巢;根据更新的解的数量Se调整性能指标Pm;根据Pm判断使用snap模式或drift模式计算pa的值;判断更新次数是否小于所述迭代次数,若是,返回继续寻找最优,否则,将更新后的适应度值最小的寄生巢即最优权值和阈值,将其作为灰色神经网络的初始连接权值和阈值进行训练,直至满足最小预测精度。

    一种基于樽海鞘群算法优化的模糊C均值聚类方法

    公开(公告)号:CN112381157A

    公开(公告)日:2021-02-19

    申请号:CN202011294923.4

    申请日:2020-11-18

    Abstract: 本发明公开一种基于樽海鞘群算法优化的模糊C均值聚类方法,该方法包括:初始化该优化算法参数,预处理待聚类的数据集;构建目标函数,即对可行解的评价函数;对目标函数进行最优值求解,得到最优值并确定对应的最优初始聚类中心;根据最优初始聚类中心进行模糊C均值聚类,最终得到聚类结果。采用本发明方法或系统对模糊C均值聚类进行基于樽海鞘群算法的初始聚类中心优化,解决了模糊聚类效果极易受随机初始聚类中心的影响。

    一种基于深度学习区域聚合特征的室内多尺度定位方法

    公开(公告)号:CN114677487B

    公开(公告)日:2024-10-29

    申请号:CN202210389768.7

    申请日:2022-04-14

    Abstract: 本发明提供一种基于区域聚合特征的室内多尺度定位方法。本方法利用深度学习提取区域聚合特征,仅通过构建包含区域聚合特征和深度学习特征的节点式地图,采用多尺度定位方法即可实现室内定位。其特征在于:1.利用深度学习特征构建区域聚合特征;2.构建包含区域聚合特征和深度学习特征的节点式地图;3.利用所构建的节点式地图,采用室内多尺度定位方法,实现场景识别。本发明公开的方法仅通过前视图像,不需要在室内布设其他的定位信号,即可实现精确的定位。相比于目前已有的方法,本方法便于部署,且成本低廉。

    一种基于锚点图像的地下停车场多尺度场景识别方法

    公开(公告)号:CN114299462B

    公开(公告)日:2024-04-23

    申请号:CN202111627216.7

    申请日:2021-12-28

    Abstract: 本发明只需分为节点式地图构建阶段和多尺度场景识别阶段。首先构建包含前视和仰视视角图像特征的节点式地图。将地下停车场平均切割若干个地图子块,每个地图子块构建一个节点,每个节点包含前视和仰视的图像特征,所构建的节点式地图表征地下停车场。再将数个地图子块拼接成一个区域,在区域中选取一个具有代表性的节点作为锚点节点,该锚点节点的图像特征能有效表征所在的区域特征。在定位阶段,首先以前视图像特征为匹配依据,将待定位位置与所有锚点节点进行匹配,定位到该节点所在的区域,实现初定位。再以仰视图像特征为匹配依据,定位到距离待定位位置最近的一个地图节点,实现场景识别。

    一种基于深度学习区域聚合特征的室内多尺度定位方法

    公开(公告)号:CN114677487A

    公开(公告)日:2022-06-28

    申请号:CN202210389768.7

    申请日:2022-04-14

    Abstract: 本发明提供一种基于区域聚合特征的室内多尺度定位方法。本方法利用深度学习提取区域聚合特征,仅通过构建包含区域聚合特征和深度学习特征的节点式地图,采用多尺度定位方法即可实现室内定位。其特征在于:1.利用深度学习特征构建区域聚合特征;2.构建包含区域聚合特征和深度学习特征的节点式地图;3.利用所构建的节点式地图,采用室内多尺度定位方法,实现场景识别。本发明公开的方法仅通过前视图像,不需要在室内布设其他的定位信号,即可实现精确的定位。相比于目前已有的方法,本方法便于部署,且成本低廉。

    一种基于仰视视角图像特征的地下停车场场景识别方法

    公开(公告)号:CN114359820A

    公开(公告)日:2022-04-15

    申请号:CN202111417622.0

    申请日:2021-11-26

    Abstract: 本发明开了一种基于仰视视角图像特征的地下停车场场景识别方法。本发明是针对地下停车场无GPS信号的室内环境,以仰视视角为对象,构建包含俯视视角的图像局部特征的地图集和基于地图集的多尺度场景时。其中包括仰视视角图像局部特征提取和匹配、地图集构建和地下停车场多尺度定位。本发明提取仰视视角的图像局部特征作为定位特征,相比于传统定位方法提取前视图像局部特征,本发明能有效地克服用户自由拍摄角度导致的图像特征不匹配问题。此外,通过匹配不同尺度的定位特征,能精确高效地找到距离待定位节点最近的地图节点,从而实现场景识别,为地下停车场寻车和定位提供导航依据。

    一种基于深度学习方向特征的多尺度场景识别装置和方法

    公开(公告)号:CN113947751A

    公开(公告)日:2022-01-18

    申请号:CN202111162828.3

    申请日:2021-09-30

    Abstract: 本发明公开了一种基于深度学习方向特征的多尺度场景识别方法,利用地图采集车和测试车,经过相同的路径,每隔相同一段距离确定一个节点,并采集节点信息;分别提取前视图像的深度学习方向特征,并将深度学习方向特征保存至对应的节点信息中;地图节点的集合构成地图集;测试节点的集合构成测试点集;利用GPS信息对地图节点和测试节点进行匹配,筛选出与某一特定测试节点在一定距离内的地图节点;对每一个测试节点均进行匹配,筛选出所有符合要求的地图节点,构成候选地图节点集;通过匹配候选地图节点集和测试节点的深度学习方向特征,实现场景识别。本发明所提出的装置和方法能实现低成本,精度高、鲁棒性强和效率高的场景识别。

Patent Agency Ranking