一种电力巡检中保护屏智能识别系统的构建方法

    公开(公告)号:CN107563396B

    公开(公告)日:2019-08-30

    申请号:CN201710681386.0

    申请日:2017-08-10

    Inventor: 杨育彬 李瑮

    Abstract: 本发明公开了一种电力巡检中保护屏智能识别系统的构建方法,包括:步骤1,载入采集到的保护屏设备图像,识别图像中的标签区域;步骤2,实现图像旋转与缩放的矫正;步骤3,图像的预处理:对图像进行裁剪,获得新的图像;步骤4,对步骤3中获得的图像中的待识别像素区域生成高斯分布随机数,将采样的测试区域进行分类,保留正例像素区域;步骤5,利用二值化图像的列累加直方图寻找合适的行分割点,进而获得按行分块的图像;步骤6,获得单个的待识别压板开关的阈值化图像;步骤7,得到压板开关的每个部件的位置信息;步骤8,计算部件之间的相对位置关系进而判断出开关的状态,并将识别的状态反馈用户。

    一种基于Hadoop的文档分类方法

    公开(公告)号:CN102637205B

    公开(公告)日:2014-10-15

    申请号:CN201210072522.3

    申请日:2012-03-19

    Abstract: 本发明公开了一种基于Hadoop的文档分类方法,包括如下步骤:对训练用文档集进行预处理,将原始的文档转化成向量形式;将向量形式的数据上传至集群文件系统;所述集群文件系统对向量形式的数据进行分块处理;对分块处理后的数据进行map-reduce处理过程得到统计信息;根据统计信息训练分类器;利用得到的分类器对测试用的文档进行分类。本发明能够利用大量无标记的文本提高分类器的分类准确度;能够利用集群和并行计算模型提高训练分类器的速度。

    一种基于Hadoop的并行化SVM求解方法

    公开(公告)号:CN102750309A

    公开(公告)日:2012-10-24

    申请号:CN201210072523.8

    申请日:2012-03-19

    Abstract: 本发明公开了一种基于Hadoop的并行化SVM求解方法,包括如下步骤:将数据存储于分布式的集群文件系统中;根据数据的分布状况,在各个数据块上执行随机抽样过程,并将随机抽取的样本数据一一分配并形成若干的数据子集;在所述数据子集上进行局部第一方法;将各个数据子集上进行局部第一方法的结果进行取平均的融合,输出平均结果。本发明能够在不损失精度的情况下处理海量数据下的Pegasos求解,大大缩短运行时间,并且能够有好的拓展性。

    一种基于Hadoop的文档分类方法

    公开(公告)号:CN102637205A

    公开(公告)日:2012-08-15

    申请号:CN201210072522.3

    申请日:2012-03-19

    Abstract: 本发明公开了一种基于Hadoop的文档分类方法,包括如下步骤:对训练用文档集进行预处理,将原始的文档转化成向量形式;将向量形式的数据上传至集群文件系统;所述集群文件系统对向量形式的数据进行分块处理;对分块处理后的数据进行map-reduce处理过程得到统计信息;根据统计信息训练分类器;利用得到的分类器对测试用的文档进行分类。本发明能够利用大量无标记的文本提高分类器的分类准确度;能够利用集群和并行计算模型提高训练分类器的速度。

    一种基于Hadoop的频繁闭项集挖掘方法

    公开(公告)号:CN102622447A

    公开(公告)日:2012-08-01

    申请号:CN201210072524.2

    申请日:2012-03-19

    Abstract: 本发明公开了一种基于Hadoop的频繁闭项集挖掘方法,包括如下步骤:并行计数:并行地扫描一次数据库,统计数据库中每个数据项的频繁次数;构造全局F-List和G-List:并行挖掘局部频繁闭项集:再次扫描数据库,在各个节点采用第一算法挖掘局部频繁闭项集,并只保存全局频繁闭项集。本发明方法基于Group分配计算任务,使得计算量的分配更加均衡;同时,该方法更加简洁,只要三个步骤(两次Map-Reduce过程)就可以完成挖掘任务。

    一种基于Hadoop的并行k近邻分类方法

    公开(公告)号:CN102622446A

    公开(公告)日:2012-08-01

    申请号:CN201210071445.X

    申请日:2012-03-19

    Abstract: 本发明公开了一种基于Hadoop的并行k近邻分类方法,包括如下步骤:数据预处理;在Hadoop各个节点的Mapper端并行计算一个测试数据与位于该节点的训练数据的距离;在所述Mapper端用选择算法确定该测试数据的局部k近邻数据,将所有局部k近邻数据发送到Hadoop各个节点的Reducer端;在所述Reducer端接收该测试数据的所有局部k近邻数据,用选择算法确定全局k近邻数据;利用所述全局k近邻数据对该测试数据进行分类,得到该测试数据的分类结果;重复执行,得到所有测试数据的分类结果。本发明能够有效地解决海量数据的分类问题,大大提高分类的速度。

    一种基于Hadoop的并行化SVM求解方法

    公开(公告)号:CN102750309B

    公开(公告)日:2015-06-17

    申请号:CN201210072523.8

    申请日:2012-03-19

    Abstract: 本发明公开了一种基于Hadoop的并行化SVM求解方法,包括如下步骤:将数据存储于分布式的集群文件系统中;根据数据的分布状况,在各个数据块上执行随机抽样过程,并将随机抽取的样本数据一一分配并形成若干的数据子集;在所述数据子集上进行局部第一方法;将各个数据子集上进行局部第一方法的结果进行取平均的融合,输出平均结果。本发明能够在不损失精度的情况下处理海量数据下的Pegasos求解,大大缩短运行时间,并且能够有好的拓展性。

    一种基于Hadoop的频繁闭项集挖掘方法

    公开(公告)号:CN102622447B

    公开(公告)日:2014-03-05

    申请号:CN201210072524.2

    申请日:2012-03-19

    Abstract: 本发明公开了一种基于Hadoop的频繁闭项集挖掘方法,包括如下步骤:并行计数:并行地扫描一次数据库,统计数据库中每个数据项的频繁次数;构造全局F-List和G-List:并行挖掘局部频繁闭项集:再次扫描数据库,在各个节点采用第一算法挖掘局部频繁闭项集,并只保存全局频繁闭项集。本发明方法基于Group分配计算任务,使得计算量的分配更加均衡;同时,该方法更加简洁,只要三个步骤(两次Map-Reduce过程)就可以完成挖掘任务。

Patent Agency Ranking