-
公开(公告)号:CN111444767B
公开(公告)日:2022-06-21
申请号:CN202010116935.1
申请日:2020-02-25
Applicant: 华中科技大学
Abstract: 本发明公开了一种基于激光雷达的行人检测和追踪方法,用于从2D激光雷达点云中检测出行人并对其进行连续的追踪。与传统的行人检测和追踪的方法不同,该方法更加鲁棒的处理由于2D激光雷达数据的不稳定性及多尺度特性对检测的影响。首先,本方法利用了一种多尺度自适应随机森林分类器算法将人腿从激光雷达点云中准确且高效的检测出来;其次,该方法引入局部栅格地图来排除静态近似人腿的障碍物对行人检测的影响;进一步,通过Tracking‑by‑Detection策略,从检测的人腿中检测行人,同时建立行人的匀速运动模型;最后,利用卡尔曼滤波器对行人进行追踪,追踪的同时判断行人下一时刻的位置与下一时刻检测的人腿进行数据关联,以对下一时刻的行人进行快速检测与追踪。
-
公开(公告)号:CN113011424A
公开(公告)日:2021-06-22
申请号:CN202110230635.0
申请日:2021-03-02
Applicant: 北京三快在线科技有限公司 , 华中科技大学
Abstract: 本说明书公开了一种训练样本的生成方法及生成装置,获取待标注图像以及待标注图像对应的文本标注信息,并将待标注图像输入到预设的识别模型中,得到针对待标注图像中包含的文本行的整体识别结果,作为第一识别结果,以及针对待标注图像中包含的至少部分单个文字的单字识别结果,作为第二识别结果。而后,根据第一识别结果以及第二识别结果,确定针对待标注图像除文本标注信息外的其他标注信息,作为补充标注信息,根据补充标注信息,对文本标注信息进行补充,得到补充后标注信息,并通过补充后标注信息生成待标注图像对应的训练样本,以通过训练样本对识别模型进行训练,从而有效率地产生训练样本。
-
公开(公告)号:CN111445497A
公开(公告)日:2020-07-24
申请号:CN202010117523.X
申请日:2020-02-25
Applicant: 华中科技大学
IPC: G06T7/223
Abstract: 本发明公开了一种基于尺度上下文回归的目标追踪与跟随方法,包括:通过单目摄像机采集图片,用户通过在待跟随目标上设置一个标识物体所在图像区域的矩形包围盒来初始化追踪过程;使用尺度上下文回归模型进行目标追踪,获取目标位置和尺度;使用基于局部块的追踪目标质量评估方法,判断是否发生目标丢失并及时的进行重检测;建立跟随者自身与待跟随目标的相对位置关系,同时基于此相对位置关系调整跟随者自身位姿。本发明在目标跟随过程中,增强系统判别与待跟随目标具有相似语义干扰物的能力,通过后处理使系统能够判断目标是否丢失并及时进行重检测,建立自身与目标的相对位置关系,最后调整自身位姿进行跟随。
-
公开(公告)号:CN111444768A
公开(公告)日:2020-07-24
申请号:CN202010116956.3
申请日:2020-02-25
Applicant: 华中科技大学
Abstract: 本发明公开了一种用于反光地面场景的微小障碍物发现方法,包括:对反光地面场景的小障碍物数据集进行障碍物及地面的实例级标注,得到带标注的标准训练数据集;训练基于几何线索和表观线索融合的障碍物发现模型,从图像中提取区域级的几何特征及区域级的表观特征,并根据带标注的标准训练数据集,采用随机森林作为学习器,学习到每一个图像区域存在障碍物的概率,得到基于几何线索和表观线索融合的障碍物发现模型;利用上述训练好的模型对机器人视角的场景图片进行障碍物发现。本发明利用机器人的位姿信息,并构建了区域级的几何特征,可以表达单张图片中无法体现出的空间几何特征。相比于现有技术可以极大减小地面上的障碍物误检测。
-
公开(公告)号:CN111444767A
公开(公告)日:2020-07-24
申请号:CN202010116935.1
申请日:2020-02-25
Applicant: 华中科技大学
Abstract: 本发明公开了一种基于激光雷达的行人检测和追踪方法,用于从2D激光雷达点云中检测出行人并对其进行连续的追踪。与传统的行人检测和追踪的方法不同,该方法更加鲁棒的处理由于2D激光雷达数据的不稳定性及多尺度特性对检测的影响。首先,本方法利用了一种多尺度自适应随机森林分类器算法将人腿从激光雷达点云中准确且高效的检测出来;其次,该方法引入局部栅格地图来排除静态近似人腿的障碍物对行人检测的影响;进一步,通过Tracking-by-Detection策略,从检测的人腿中检测行人,同时建立行人的匀速运动模型;最后,利用卡尔曼滤波器对行人进行追踪,追踪的同时判断行人下一时刻的位置与下一时刻检测的人腿进行数据关联,以对下一时刻的行人进行快速检测与追踪。
-
公开(公告)号:CN106156711B
公开(公告)日:2020-06-30
申请号:CN201510190211.0
申请日:2015-04-21
Applicant: 华中科技大学 , 腾讯科技(深圳)有限公司
Abstract: 本发明公开一种文本行的定位方法及装置,属于计算机视觉技术领域。该方法包括:提取待检测图像中各个像素的至少包括对称性特征向量的特征向量;根据每个像素的特征向量,确定多个潜在位于文本行对称轴上的目标像素,位于文本行对称轴上的像素具有对称性;对各个目标像素进行聚合,得到多个候选文本行区域;滤除非文本行区域得到文本行区域。由于待检测图像中的文本行区域通常具有对称性,因此,基于提取待检测图像中每个像素的对称性特征向量,能够从自然图像中直接定位到待检测图像中的文本行区域,而无需对各个候选字符区域进行组合以得到文本行区域,不仅方式简单,而且不依赖于自然图像中的连通区域,扩大了文本行定位方式的适用范围。
-
公开(公告)号:CN106156777B
公开(公告)日:2020-06-02
申请号:CN201510197323.9
申请日:2015-04-23
Applicant: 华中科技大学 , 腾讯科技(深圳)有限公司
IPC: G06K9/46
Abstract: 本发明公开了一种文本图片检测方法及装置,属于多媒体技术领域。所述方法包括:对于每一个待检测自然图片,在所述待检测自然图片中提取多个候选区域;计算每一个目标区域的类别响应,所述目标区域通过对所述多个候选区域进行过滤处理得到;根据每一个目标区域的类别响应,计算所述待检测自然图片的特征向量,所述特征向量的维数与所述类别响应的维数相等;当所述特征向量位于预先设置的文本图片归属的特征向量范围内时,确定所述待检测自然图片为文本图片。由于上述文本图片检测方式可对自然图片中的文本图片进行检测,所以该种检测方式的应用范围较为广泛,普适性强。
-
公开(公告)号:CN106599900B
公开(公告)日:2020-04-21
申请号:CN201510682699.9
申请日:2015-10-20
Applicant: 华中科技大学 , 腾讯科技(深圳)有限公司
Abstract: 本发明公开了一种识别图像中的字符串的方法和装置,属于计算机技术领域。所述方法包括:根据训练样本库中存储的包含有字符串的样本图像块的图像数据,并基于卷积神经网络算法,构建样本图像块的字符串识别结果对应的概率集合的表达式,概率集合的表达式由待定参数构成;基于使根据概率集合确定出的字符串识别结果为预先存储的样本图像块包含的字符串的概率最大的原则,对待定参数进行训练,得到待定参数的训练值;当获取到待识别的目标图像块时,基于卷积神经网络算法和待定参数的训练值,确定目标图像块的字符串识别结果对应的目标概率集合,根据目标概率集合,确定目标图像块的字符串识别结果。采用本发明,可以提高识别的正确率。
-
公开(公告)号:CN110837835A
公开(公告)日:2020-02-25
申请号:CN201911038568.1
申请日:2019-10-29
Applicant: 华中科技大学
Abstract: 本发明公开了一种基于边界点检测的场景文本端到端识别方法,通过特征金字塔网络提取文本特征,用于区域提取网络生成候选文本框;然后通过多方向矩形检测网络检测文本实例的更为精准的多方向包围盒;其次在多方向包围盒内检测文本的上下两条边界点序列;最后利用检测到的边界点序列将任意形状的文本转化为水平文本供后续的基于注意力机制的序列识别网络进行识别,最后利用集束搜索算法找到给定词典中预测序列的最匹配单词得到最终的文本识别结果。该方法可以在不需要字符级别的标注情况下同时检测和识别自然图像中任意形状的场景文本,包括水平文本、多方向文本和曲形文本,并且可以完全地进行端到端训练。
-
公开(公告)号:CN110717427A
公开(公告)日:2020-01-21
申请号:CN201910921351.9
申请日:2019-09-27
Applicant: 华中科技大学
Abstract: 本发明公开了一种基于顶点滑动的多方向物体检测算法。与传统的回归角度或者回归四个顶点的方法不同,该方法不存在回归角度所带来的不稳定问题,也不存在回归四个顶点所带来的歧义。首先,通过卷积网络所获取到的特征同时预测物体的水平包围盒、滑动顶点、及其倾斜包围盒相对于水平包围盒的面积比例,从而得到物体的水平包围盒、倾斜包围盒及倾斜程度,通过倾斜程度确定究竟是选择倾斜或是水平包围盒。对于倾斜程度较大的物体,选择倾斜包围盒;对于几近水平的物体,直接选择该物体水平包围盒。该方法是针对在多方向物体领域常用的两种表示方法所提出的第三种方法,实现简单,几乎不增加额外时间,能显著提升检测性能,具有很强的实际应用价值。
-
-
-
-
-
-
-
-
-