-
公开(公告)号:CN112150493B
公开(公告)日:2022-10-04
申请号:CN202011004389.9
申请日:2020-09-22
Applicant: 重庆邮电大学
IPC: G06T7/13 , G06T3/40 , G06T3/00 , G06N3/04 , G06V10/82 , G06V10/80 , G06V10/26 , G06V10/774 , G06V20/70
Abstract: 本发明针对在自然场景下定位屏幕位置,且基于全卷积网络(Fully Convolutional Network)的边缘检测技术生成的屏幕边缘粗糙等问题,研究并提出一种基于语义指导的自然场景下屏幕区域检测方法。提出一种基于语义指导的边缘检测网络用于屏幕边缘检测,该网络分成两部分,一部分是由反卷积模块组成,完成图像分割任务,另一部分由不同尺度的特征图融合后进行图像边缘检测任务。将算法模型同时进行图像分割与图像边缘检测任务的训练,最后融合两个任务的输出得到最终边缘图像。在屏幕区域定位阶段,通过霍夫变换(Hough Transform)进行边缘图像直线检测,去掉重合直线,将符合条件的屏幕角点取出,并通过仿射变换(Affine Transformation)进行区域角度进行校正,最终得到屏幕内容图像。
-
公开(公告)号:CN113051811B
公开(公告)日:2022-08-05
申请号:CN202110281219.3
申请日:2021-03-16
Applicant: 重庆邮电大学
Abstract: 本发明提出一种基于GRU(GatedRecurrentUnit,门控循环单元)网络的多模式短期交通拥堵预测方法,分为交通速度预测和交通拥堵识别。其方案为:获取全部时空交通速度数据;提取四种模式对应的时空交通速度数据;提取四种模式对应的路段网络数据和特殊时间数据,采用one‑hot编码生成辅助信息向量;分别提取四种模式下交通速度数据邻近性、周期性和趋势性矩阵;制定多步交通速度数据标签;构建以交通速度数据邻近性、周期性和趋势性矩阵作为GRU‑FC网络输入的GRU‑FC模型。设置模型超参数,对模型调参、训练;使用训练好的模型,获取短期交通速度数据,经过计算交通拥堵阈值、划分交通拥堵等级得到交通拥堵结果。本发明提出的交通拥堵预测方法具有针对性和高准确性。
-
公开(公告)号:CN113051811A
公开(公告)日:2021-06-29
申请号:CN202110281219.3
申请日:2021-03-16
Applicant: 重庆邮电大学
Abstract: 本发明提出一种基于GRU(GatedRecurrentUnit,门控循环单元)网络的多模式短期交通拥堵预测方法,分为交通速度预测和交通拥堵识别。其方案为:获取全部时空交通速度数据;提取四种模式对应的时空交通速度数据;提取四种模式对应的路段网络数据和特殊时间数据,采用one‑hot编码生成辅助信息向量;分别提取四种模式下交通速度数据邻近性、周期性和趋势性矩阵;制定多步交通速度数据标签;构建以交通速度数据邻近性、周期性和趋势性矩阵作为GRU‑FC网络输入的GRU‑FC模型。设置模型超参数,对模型调参、训练;使用训练好的模型,获取短期交通速度数据,经过计算交通拥堵阈值、划分交通拥堵等级得到交通拥堵结果。本发明提出的交通拥堵预测方法具有针对性和高准确性。
-
公开(公告)号:CN112966691A
公开(公告)日:2021-06-15
申请号:CN202110399687.0
申请日:2021-04-14
Applicant: 重庆邮电大学
Abstract: 本发明涉及深度学习以及计算机视觉领域,具体涉及一种基于语义分割的多尺度文本检测方法、装置及电子设备;所述方法包括采集字符图像,并对所述字符图像进行预处理;所述字符图像包括训练字符图像和待测字符图像;将预处理后的字符图像输入到语义分割的字符检测网络中,输出字符图像的文本边界区域标签和文本中心区域标签;将字符图像所对应的文本边界区域与文本中心区域进行二值化融合,得到分割融合后的字符图像;将所述分割融合后的字符图像进行后处理,确定出字符区域,即字符的坐标位置;本发明通过双标签进行监督学习,充分利用了高级语义特征,降低了潜在的语义特征学习。
-
公开(公告)号:CN112966691B
公开(公告)日:2022-09-16
申请号:CN202110399687.0
申请日:2021-04-14
Applicant: 重庆邮电大学
IPC: G06V30/148 , G06V10/80 , G06V10/82 , G06N3/04 , G06N3/08
Abstract: 本发明涉及深度学习以及计算机视觉领域,具体涉及一种基于语义分割的多尺度文本检测方法、装置及电子设备;所述方法包括采集字符图像,并对所述字符图像进行预处理;所述字符图像包括训练字符图像和待测字符图像;将预处理后的字符图像输入到语义分割的字符检测网络中,输出字符图像的文本边界区域标签和文本中心区域标签;将字符图像所对应的文本边界区域与文本中心区域进行二值化融合,得到分割融合后的字符图像;将所述分割融合后的字符图像进行后处理,确定出字符区域,即字符的坐标位置;本发明通过双标签进行监督学习,充分利用了高级语义特征,降低了潜在的语义特征学习。
-
公开(公告)号:CN112150493A
公开(公告)日:2020-12-29
申请号:CN202011004389.9
申请日:2020-09-22
Applicant: 重庆邮电大学
Abstract: 本发明针对在自然场景下定位屏幕位置,且基于全卷积网络(Fully Convolutional Network)的边缘检测技术生成的屏幕边缘粗糙等问题,研究并提出一种基于语义指导的自然场景下屏幕区域检测方法。提出一种基于语义指导的边缘检测网络用于屏幕边缘检测,该网络分成两部分,一部分是由反卷积模块组成,完成图像分割任务,另一部分由不同尺度的特征图融合后进行图像边缘检测任务。将算法模型同时进行图像分割与图像边缘检测任务的训练,最后融合两个任务的输出得到最终边缘图像。在屏幕区域定位阶段,通过霍夫变换(Hough Transform)进行边缘图像直线检测,去掉重合直线,将符合条件的屏幕角点取出,并通过仿射变换(Affine Transformation)进行区域角度进行校正,最终得到屏幕内容图像。
-
-
-
-
-