一种基于GRU网络的多模式短期交通拥堵预测方法

    公开(公告)号:CN113051811B

    公开(公告)日:2022-08-05

    申请号:CN202110281219.3

    申请日:2021-03-16

    Abstract: 本发明提出一种基于GRU(GatedRecurrentUnit,门控循环单元)网络的多模式短期交通拥堵预测方法,分为交通速度预测和交通拥堵识别。其方案为:获取全部时空交通速度数据;提取四种模式对应的时空交通速度数据;提取四种模式对应的路段网络数据和特殊时间数据,采用one‑hot编码生成辅助信息向量;分别提取四种模式下交通速度数据邻近性、周期性和趋势性矩阵;制定多步交通速度数据标签;构建以交通速度数据邻近性、周期性和趋势性矩阵作为GRU‑FC网络输入的GRU‑FC模型。设置模型超参数,对模型调参、训练;使用训练好的模型,获取短期交通速度数据,经过计算交通拥堵阈值、划分交通拥堵等级得到交通拥堵结果。本发明提出的交通拥堵预测方法具有针对性和高准确性。

    一种基于GRU网络的多模式短期交通拥堵预测方法

    公开(公告)号:CN113051811A

    公开(公告)日:2021-06-29

    申请号:CN202110281219.3

    申请日:2021-03-16

    Abstract: 本发明提出一种基于GRU(GatedRecurrentUnit,门控循环单元)网络的多模式短期交通拥堵预测方法,分为交通速度预测和交通拥堵识别。其方案为:获取全部时空交通速度数据;提取四种模式对应的时空交通速度数据;提取四种模式对应的路段网络数据和特殊时间数据,采用one‑hot编码生成辅助信息向量;分别提取四种模式下交通速度数据邻近性、周期性和趋势性矩阵;制定多步交通速度数据标签;构建以交通速度数据邻近性、周期性和趋势性矩阵作为GRU‑FC网络输入的GRU‑FC模型。设置模型超参数,对模型调参、训练;使用训练好的模型,获取短期交通速度数据,经过计算交通拥堵阈值、划分交通拥堵等级得到交通拥堵结果。本发明提出的交通拥堵预测方法具有针对性和高准确性。

    基于运算符作用域和中心线的数学公式识别方法

    公开(公告)号:CN113139548B

    公开(公告)日:2022-05-06

    申请号:CN202011638890.0

    申请日:2020-12-31

    Abstract: 本发明提出了一种基于运算符和中心线的数学公式识别的方法,其主要思路为:对公式图片进行切割;应用卷积神经网络(CNN)网络结构对字符图片进行识别;充分利用公式中不同种类运算符作用域固定的特点将其分为三类,分别是分号、特殊运算符和二元运算符号,其中特殊运算符包括根号、求和符号、积分符号等大符号,这些运算符有多个作用域,先将这些作用域内的子式判别出来并进行识别,将识别结果直接送入运算符的Latex语言表达式;然后基于字符在书写时受四线格约束的情况,提出中心线的概念,将常见字符分类为向上类、向下类、全占类和中心类,依据字符的中心线类别不同计算阈值,判断两个字符之间的上下标的位置关系。最终实现公式识别。

    基于运算符作用域和中心线的数学公式识别方法

    公开(公告)号:CN113139548A

    公开(公告)日:2021-07-20

    申请号:CN202011638890.0

    申请日:2020-12-31

    Abstract: 本发明提出了一种基于运算符和中心线的数学公式识别的方法,其主要思路为:对公式图片进行切割;应用卷积神经网络(CNN)网络结构对字符图片进行识别;充分利用公式中不同种类运算符作用域固定的特点将其分为三类,分别是分号、特殊运算符和二元运算符号,其中特殊运算符包括根号、求和符号、积分符号等大符号,这些运算符有多个作用域,先将这些作用域内的子式判别出来并进行识别,将识别结果直接送入运算符的Latex语言表达式;然后基于字符在书写时受四线格约束的情况,提出中心线的概念,将常见字符分类为向上类、向下类、全占类和中心类,依据字符的中心线类别不同计算阈值,判断两个字符之间的上下标的位置关系。最终实现公式识别。

    一种基于语义指导的自然场景下屏幕区域检测方法

    公开(公告)号:CN112150493B

    公开(公告)日:2022-10-04

    申请号:CN202011004389.9

    申请日:2020-09-22

    Abstract: 本发明针对在自然场景下定位屏幕位置,且基于全卷积网络(Fully Convolutional Network)的边缘检测技术生成的屏幕边缘粗糙等问题,研究并提出一种基于语义指导的自然场景下屏幕区域检测方法。提出一种基于语义指导的边缘检测网络用于屏幕边缘检测,该网络分成两部分,一部分是由反卷积模块组成,完成图像分割任务,另一部分由不同尺度的特征图融合后进行图像边缘检测任务。将算法模型同时进行图像分割与图像边缘检测任务的训练,最后融合两个任务的输出得到最终边缘图像。在屏幕区域定位阶段,通过霍夫变换(Hough Transform)进行边缘图像直线检测,去掉重合直线,将符合条件的屏幕角点取出,并通过仿射变换(Affine Transformation)进行区域角度进行校正,最终得到屏幕内容图像。

    一种基于语义指导的自然场景下屏幕区域检测方法

    公开(公告)号:CN112150493A

    公开(公告)日:2020-12-29

    申请号:CN202011004389.9

    申请日:2020-09-22

    Abstract: 本发明针对在自然场景下定位屏幕位置,且基于全卷积网络(Fully Convolutional Network)的边缘检测技术生成的屏幕边缘粗糙等问题,研究并提出一种基于语义指导的自然场景下屏幕区域检测方法。提出一种基于语义指导的边缘检测网络用于屏幕边缘检测,该网络分成两部分,一部分是由反卷积模块组成,完成图像分割任务,另一部分由不同尺度的特征图融合后进行图像边缘检测任务。将算法模型同时进行图像分割与图像边缘检测任务的训练,最后融合两个任务的输出得到最终边缘图像。在屏幕区域定位阶段,通过霍夫变换(Hough Transform)进行边缘图像直线检测,去掉重合直线,将符合条件的屏幕角点取出,并通过仿射变换(Affine Transformation)进行区域角度进行校正,最终得到屏幕内容图像。

Patent Agency Ranking