-
公开(公告)号:CN108319988B
公开(公告)日:2021-12-24
申请号:CN201710038008.0
申请日:2017-01-18
Abstract: 本发明公开了一种用于手写汉字识别的深度神经网络的加速方法,包括步骤:构建并训练出一个针对脱机手写汉字识别卷积神经网络;根据所需加速的倍数,计算低秩分解后第一个卷积层输出特征图的数目;针对逐层分解的卷积层进行训练;对所述用于手写汉字识别的深度神经网络进行重新训练,从而进行微调;编写所述用于手写汉字识别的深度神经网络的前向代码。本发明破除了传统的基于改进二次判别函数(MQDF)的分类器文字识别方法,采用深度卷积神经网络针对手写文字识别,并且将Batch Normalization和PReLU引入到网络设计之中,显著提高网络的识别率;加速网络收敛,增加网络的拟合能力。
-
公开(公告)号:CN107220641B
公开(公告)日:2020-06-26
申请号:CN201610169483.7
申请日:2016-03-22
Abstract: 本发明介绍了一种基于深度学习的多语言文本分类方法。具体包括下列步骤:获取多语言文本训练图像集;图像文本行分割、高度归一化、二值化处理;增加训练图像集复杂度,扩大样本空间;设计深度卷积神经网络,利用训练图像集进行训练;切割拟分类的文本图片,输入所设计的深度卷积神经网络,根据神经网络学习到的概率分布,对概率分布求均值,输出分类结果。本发明通过设计深度卷积神经网络,学习区分多语言文本的特征,能够使计算机对不同语言文本进行精确分类。
-
公开(公告)号:CN108322221A
公开(公告)日:2018-07-24
申请号:CN201710038007.6
申请日:2017-01-18
Abstract: 本发明公开了一种用于深度卷积神经网络模型压缩的方法,包括步骤:对于已经训练完成的深度卷积神经网络模型进行再训练,去除其中冗余的网络连接;对卷积神经网络的各网络层的剩余连接的权值进行编码;对卷积神经网络的各网络层的剩余连接的权值进行k-means聚类;对聚类结果进行微调;保存微调后的结果,并对保存的文件进行哈夫曼编码。本发明通过动态阈值的设定,能够较平缓地去除网络中的连接,使网络能够从连接被去除的不利情况中恢复,从而能够达到相同准确率损失的情况下,压缩倍数较高的效果;在剩余连接编码过程中,使用的改进的CSR编码方法可以减少表示索引值所需要的比特位数,从而能够减小压缩文件的大小,提高压缩率。
-
公开(公告)号:CN107220641A
公开(公告)日:2017-09-29
申请号:CN201610169483.7
申请日:2016-03-22
Abstract: 本发明介绍了一种基于深度学习的多语言文本分类方法。具体包括下列步骤:获取多语言文本训练图像集;图像文本行分割、高度归一化、二值化处理;增加训练图像集复杂度,扩大样本空间;设计深度卷积神经网络,利用训练图像集进行训练;切割拟分类的文本图片,输入所设计的深度卷积神经网络,根据神经网络学习到的概率分布,对概率分布求均值,输出分类结果。本发明通过设计深度卷积神经网络,学习区分多语言文本的特征,能够使计算机对不同语言文本进行精确分类。
-
公开(公告)号:CN110533157A
公开(公告)日:2019-12-03
申请号:CN201810503382.8
申请日:2018-05-23
Abstract: 本发明涉及一种基于SVD和剪枝用于深度循环神经网络的压缩方法,包括步骤:S1:对需要压缩的循环神经网络进行SVD分解;S2:对SVD分解之后的网络进行再训练,逐步移除冗余的连接;S3:对网络各层剩余连接的权值分别进行K-means聚类;S4:对聚类后的网络进行再训练;S5:对网络权值进行编码保存。本发明结合了SVD和移除冗余网络连接的方法,有效地减少循环神经网络参数的数量,通过进一步的K-means聚类以及对稀疏矩阵的编码存储,大大降低了参数的存储量,在这一系列过程中同时结合了对网络的训练,保证了在网络性能影响不大的情况下实现较大的压缩倍数。
-
公开(公告)号:CN107220655A
公开(公告)日:2017-09-29
申请号:CN201610168622.4
申请日:2016-03-22
Abstract: 本发明介绍了一种基于深度学习的手写、印刷文本的分类方法。具体包括下列步骤:(1)数据获取:采集手写、印刷文本图像,以形成训练集;(2)对训练集图像进行二值化、高度归一化处理;(3)泛化样本:对训练集图像进行切割、加噪处理;(4)构造深度卷积神经网络,利用训练集图像对所构造的深度卷积神经网络进行训练;(5)切割拟分类的文本图片,输入步骤(4)所构造的深度卷积神经网络,根据得到的概率分布,对概率分布求均值,输出分类结果。本发明通过深度学习算法从样本中自动学习出手写文本与印刷文本之间的不同特征,能够使计算机智能地对手写文本、印刷文本图像进行分辨。
-
公开(公告)号:CN110533043B
公开(公告)日:2022-04-08
申请号:CN201810502952.1
申请日:2018-05-23
IPC: G06V30/22 , G06V30/32 , G06V10/774 , G06N3/04 , G06N3/08
Abstract: 本发明涉及基于SVD的用于手写汉字识别的循环神经网络的加速方法,包括以下步骤:S1:设计并训练出一个用于联机手写汉字的循环神经网络;S2:对参数矩阵进行SVD分解,根据所需加速的倍数,计算分解后的参数矩阵;S3:根据分解得到的参数矩阵对网络进行初始化;S4:对整个网络针对联机手写识别任务重新进行训练,以达到微调的作用;S5:优化前向实现,动态设置前向过程网络的时间节点长度。本发明采用了循环神经网络针对联机手写汉字识别,并且运用了SVD对训练得到的网络进行分解,显著减少了网络的计算复杂度,同时,在前向过程中根据输入数据动态地设置网络的时间节点长度,加速网络的前向运行时间,保证了网络的识别精度。
-
公开(公告)号:CN110533043A
公开(公告)日:2019-12-03
申请号:CN201810502952.1
申请日:2018-05-23
Abstract: 本发明涉及基于SVD的用于手写汉字识别的循环神经网络的加速方法,包括以下步骤:S1:设计并训练出一个用于联机手写汉字的循环神经网络;S2:对参数矩阵进行SVD分解,根据所需加速的倍数,计算分解后的参数矩阵;S3:根据分解得到的参数矩阵对网络进行初始化;S4:对整个网络针对联机手写识别任务重新进行训练,以达到微调的作用;S5:优化前向实现,动态设置前向过程网络的时间节点长度。本发明采用了循环神经网络针对联机手写汉字识别,并且运用了SVD对训练得到的网络进行分解,显著减少了网络的计算复杂度,同时,在前向过程中根据输入数据动态地设置网络的时间节点长度,加速网络的前向运行时间,保证了网络的识别精度。
-
公开(公告)号:CN108319988A
公开(公告)日:2018-07-24
申请号:CN201710038008.0
申请日:2017-01-18
Abstract: 本发明公开了一种用于手写汉字识别的深度神经网络的加速方法,包括步骤:构建并训练出一个针对脱机手写汉字识别卷积神经网络;根据所需加速的倍数,计算低秩分解后第一个卷积层输出特征图的数目;针对逐层分解的卷积层进行训练;对所述用于手写汉字识别的深度神经网络进行重新训练,从而进行微调;编写所述用于手写汉字识别的深度神经网络的前向代码。本发明破除了传统的基于改进二次判别函数(MQDF)的分类器文字识别方法,采用深度卷积神经网络针对手写文字识别,并且将Batch Normalization和PReLU引入到网络设计之中,显著提高网络的识别率;加速网络收敛,增加网络的拟合能力。
-
公开(公告)号:CN113449729B
公开(公告)日:2024-12-10
申请号:CN202010224697.6
申请日:2020-03-26
Applicant: 富士通株式会社
IPC: G06V30/148 , G06V30/146 , G06T5/70 , G06T7/90 , G06V30/164
Abstract: 本公开内容涉及图像处理装置、图像处理方法及存储介质。根据本公开内容的一个实施例,该图像处理装置,包括:二值化单元,用于将灰度文档图像二值化作为目标图像;划分单元,用于通过划分目标图像得到沿第一方向布置的多个条形区域;有向图确定单元,用于基于多个条形区域的区域内连通域确定针对整个目标图像的有向图;目标路径确定单元,用于基于有向图确定与有向图的单源最短路径有关的目标路径;以及线消除单元,用于消除灰度文档图像中的与目标路径对应的线。本公开内容的方法、装置和存储介质至少能有助于实现以下效果之一:消除文档图像中的噪声线,处理速度快、占用计算资源少,以及改善文字识别引擎的识别性能。
-
-
-
-
-
-
-
-
-