-
公开(公告)号:CN106650725B
公开(公告)日:2020-06-26
申请号:CN201611070587.9
申请日:2016-11-29
Applicant: 华南理工大学
Abstract: 本发明公开了基于全卷积神经网络的候选文本框生成和文本检测方法,包括步骤:生成文本区域候选框,inception‑RPN以自然场景图片和一套标记文本区域的真实边界框作为输入,产生可控数量的单词区域候选框,在VGG16模型的卷积特征响应图上滑动一个inception网络,并在每个滑动位置辅助一套文本特征先验框;并入容易引起歧义的文本类别监督信息,融入多层次的区域下采样信息,进行文本检测;通过反向传播和随机梯度下降,以一种端到端的方式训练inception候选框生成网络和文本检测网络;候选框迭代投票以一种补充的方式获得更高的文本召回率,使用候选框过滤算法,移除过剩的检测框。本发明在ICDAR 2011和2013robust文本检测标准数据库上分别获得0.83和0.85的准确率,优于先前最好的结果。
-
公开(公告)号:CN104035557B
公开(公告)日:2017-04-19
申请号:CN201410220225.8
申请日:2014-05-22
Applicant: 华南理工大学
Abstract: 本发明公开了一种基于关节活跃度的Kinect动作识别方法,包括以下步骤:(1)建立标准动作模板库,得到标准动作模板图和标准动作模板差分图;(2)对用户的即时动作进行识别:首先采集即时动作数据,再构建即时动作图、计算即时动作差分图、对即时动作图进行预处理,利用标准动作模板差分图和用户实时图像差分图,求每一列的差分绝对值总和,以此设置关节活跃的权值,最后在用户即时动作图与标准动作模板图的欧氏距离矩阵中乘入关节活跃度权值,并求和,将此值用于判定用户即时动作类别。本发明具有复杂度较低,运算速度快,识别率较高的优点。
-
公开(公告)号:CN106650725A
公开(公告)日:2017-05-10
申请号:CN201611070587.9
申请日:2016-11-29
Applicant: 华南理工大学
CPC classification number: G06K9/325 , G06N3/0454 , G06N3/084
Abstract: 本发明公开了基于全卷积神经网络的候选文本框生成和文本检测方法,包括步骤:生成文本区域候选框,inception‑RPN以自然场景图片和一套标记文本区域的真实边界框作为输入,产生可控数量的单词区域候选框,在VGG16模型的卷积特征响应图上滑动一个inception网络,并在每个滑动位置辅助一套文本特征先验框;并入容易引起歧义的文本类别监督信息,融入多层次的区域下采样信息,进行文本检测;通过反向传播和随机梯度下降,以一种端到端的方式训练inception候选框生成网络和文本检测网络;候选框迭代投票以一种补充的方式获得更高的文本召回率,使用候选框过滤算法,移除过剩的检测框。本发明在ICDAR 2011和2013robust文本检测标准数据库上分别获得0.83和0.85的准确率,优于先前最好的结果。
-
公开(公告)号:CN104035557A
公开(公告)日:2014-09-10
申请号:CN201410220225.8
申请日:2014-05-22
Applicant: 华南理工大学
Abstract: 本发明公开了一种基于关节活跃度的Kinect动作识别方法,包括以下步骤:(1)建立标准动作模板库,得到标准动作模板图和标准动作模板差分图;(2)对用户的即时动作进行识别:首先采集即时动作数据,再构建即时动作图、计算即时动作差分图、对即时动作图进行预处理,利用标准动作模板差分图和用户实时图像差分图,求每一列的差分绝对值总和,以此设置关节活跃的权值,最后在用户即时动作图与标准动作模板图的欧氏距离矩阵中乘入关节活跃度权值,并求和,将此值用于判定用户即时动作类别。本发明具有复杂度较低,运算速度快,识别率较高的优点。
-
-
-