-
公开(公告)号:CN114299462A
公开(公告)日:2022-04-08
申请号:CN202111627216.7
申请日:2021-12-28
Applicant: 湖北工业大学
Abstract: 本发明只需分为节点式地图构建阶段和多尺度场景识别阶段。首先构建包含前视和仰视视角图像特征的节点式地图。将地下停车场平均切割若干个地图子块,每个地图子块构建一个节点,每个节点包含前视和仰视的图像特征,所构建的节点式地图表征地下停车场。再将数个地图子块拼接成一个区域,在区域中选取一个具有代表性的节点作为锚点节点,该锚点节点的图像特征能有效表征所在的区域特征。在定位阶段,首先以前视图像特征为匹配依据,将待定位位置与所有锚点节点进行匹配,定位到该节点所在的区域,实现初定位。再以仰视图像特征为匹配依据,定位到距离待定位位置最近的一个地图节点,实现场景识别。
-
公开(公告)号:CN115170611A
公开(公告)日:2022-10-11
申请号:CN202210808478.1
申请日:2022-07-11
Applicant: 湖北工业大学
IPC: G06T7/246 , G06V10/764 , G06V10/774 , G06V10/82 , G06V20/52 , G08G1/01
Abstract: 本发明属于计算机视觉技术领域,公开了一种复杂交叉路口车辆行驶轨迹分析方法、系统及应用,首先对YOLOv5进行迁移学习,实现复杂交叉路口车辆感知;然后以虚拟线圈中心点构建参考坐标系原点,采用自适应方式构建参考坐标系,并利用DeepSORT对车辆行驶轨迹进行跟踪,最后以同一车辆在像素位置变化为分类依据,利用KNN算法实现车辆行驶轨迹分析。本发明利用迁移学习方式训练YOLOv5和DeepSORT模型,实现复杂环境下的车辆精确感知和目标跟踪;以车辆在图像像素位置变化为分类依据,利用KNN算法分析车辆行驶轨迹;利用迁移学习和KNN实现复杂交叉路口车辆感知和轨迹分析,其具有更高的精度和鲁棒性。
-
公开(公告)号:CN114299462B
公开(公告)日:2024-04-23
申请号:CN202111627216.7
申请日:2021-12-28
Applicant: 湖北工业大学
Abstract: 本发明只需分为节点式地图构建阶段和多尺度场景识别阶段。首先构建包含前视和仰视视角图像特征的节点式地图。将地下停车场平均切割若干个地图子块,每个地图子块构建一个节点,每个节点包含前视和仰视的图像特征,所构建的节点式地图表征地下停车场。再将数个地图子块拼接成一个区域,在区域中选取一个具有代表性的节点作为锚点节点,该锚点节点的图像特征能有效表征所在的区域特征。在定位阶段,首先以前视图像特征为匹配依据,将待定位位置与所有锚点节点进行匹配,定位到该节点所在的区域,实现初定位。再以仰视图像特征为匹配依据,定位到距离待定位位置最近的一个地图节点,实现场景识别。
-
公开(公告)号:CN114677487A
公开(公告)日:2022-06-28
申请号:CN202210389768.7
申请日:2022-04-14
Applicant: 湖北工业大学
Abstract: 本发明提供一种基于区域聚合特征的室内多尺度定位方法。本方法利用深度学习提取区域聚合特征,仅通过构建包含区域聚合特征和深度学习特征的节点式地图,采用多尺度定位方法即可实现室内定位。其特征在于:1.利用深度学习特征构建区域聚合特征;2.构建包含区域聚合特征和深度学习特征的节点式地图;3.利用所构建的节点式地图,采用室内多尺度定位方法,实现场景识别。本发明公开的方法仅通过前视图像,不需要在室内布设其他的定位信号,即可实现精确的定位。相比于目前已有的方法,本方法便于部署,且成本低廉。
-
公开(公告)号:CN114359820A
公开(公告)日:2022-04-15
申请号:CN202111417622.0
申请日:2021-11-26
Applicant: 湖北工业大学
Abstract: 本发明开了一种基于仰视视角图像特征的地下停车场场景识别方法。本发明是针对地下停车场无GPS信号的室内环境,以仰视视角为对象,构建包含俯视视角的图像局部特征的地图集和基于地图集的多尺度场景时。其中包括仰视视角图像局部特征提取和匹配、地图集构建和地下停车场多尺度定位。本发明提取仰视视角的图像局部特征作为定位特征,相比于传统定位方法提取前视图像局部特征,本发明能有效地克服用户自由拍摄角度导致的图像特征不匹配问题。此外,通过匹配不同尺度的定位特征,能精确高效地找到距离待定位节点最近的地图节点,从而实现场景识别,为地下停车场寻车和定位提供导航依据。
-
公开(公告)号:CN113947751A
公开(公告)日:2022-01-18
申请号:CN202111162828.3
申请日:2021-09-30
Applicant: 湖北工业大学
IPC: G06V20/52 , G06V20/10 , G06V10/774 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08 , G06F16/29 , G01C21/00
Abstract: 本发明公开了一种基于深度学习方向特征的多尺度场景识别方法,利用地图采集车和测试车,经过相同的路径,每隔相同一段距离确定一个节点,并采集节点信息;分别提取前视图像的深度学习方向特征,并将深度学习方向特征保存至对应的节点信息中;地图节点的集合构成地图集;测试节点的集合构成测试点集;利用GPS信息对地图节点和测试节点进行匹配,筛选出与某一特定测试节点在一定距离内的地图节点;对每一个测试节点均进行匹配,筛选出所有符合要求的地图节点,构成候选地图节点集;通过匹配候选地图节点集和测试节点的深度学习方向特征,实现场景识别。本发明所提出的装置和方法能实现低成本,精度高、鲁棒性强和效率高的场景识别。
-
公开(公告)号:CN114677487B
公开(公告)日:2024-10-29
申请号:CN202210389768.7
申请日:2022-04-14
Applicant: 湖北工业大学
IPC: G06T17/05 , G06T17/10 , G06N3/0464 , G06N3/08
Abstract: 本发明提供一种基于区域聚合特征的室内多尺度定位方法。本方法利用深度学习提取区域聚合特征,仅通过构建包含区域聚合特征和深度学习特征的节点式地图,采用多尺度定位方法即可实现室内定位。其特征在于:1.利用深度学习特征构建区域聚合特征;2.构建包含区域聚合特征和深度学习特征的节点式地图;3.利用所构建的节点式地图,采用室内多尺度定位方法,实现场景识别。本发明公开的方法仅通过前视图像,不需要在室内布设其他的定位信号,即可实现精确的定位。相比于目前已有的方法,本方法便于部署,且成本低廉。
-
公开(公告)号:CN115862458A
公开(公告)日:2023-03-28
申请号:CN202211511633.X
申请日:2022-11-29
Applicant: 湖北工业大学
IPC: G09B29/10 , G06N3/0464 , G06N3/08 , G06V10/74 , G06V10/82
Abstract: 本发明公开了一种基于ConvNet指纹特征的室内高精度定位方法。首先提取图像的多种深度学习特征并进行层次化构建,形成具有表征能力强、鲁棒性高的ConvNet指纹特征,然后基于ConvNet指纹特征构建高精度地图,最后通过匹配不同尺度的深度学习特征,实现室内高精度定位。本发明无需布设定位信号发射器,仅通过图像便可实现室内高精度定位。相比于已有方法,本方法成本低且定位精度高。
-
-
-
-
-
-
-