-
公开(公告)号:CN112632911A
公开(公告)日:2021-04-09
申请号:CN202110001263.4
申请日:2021-01-04
Applicant: 福州大学
IPC: G06F40/126
Abstract: 本发明涉及一种基于字符嵌入的汉字编码方法,包括以下步骤:步骤S1:构建汉字字符集,将每个字符分解为若干个子结构,构建子结构集合,定义每个子结构对字符的贡献度,并根据子结构集合,构建子结构对每个字符贡献度矩阵;步骤S2:根据得到的子结构集合和子结构对每个字符贡献度矩阵,构建子结构嵌入矩阵并训练,提取得到字符嵌入矩阵;步骤S3:输入字符,通过字符嵌入矩阵获取字符嵌入。本发明能有效降低汉字编码的维度,使得具有相似构成的汉字编码具有正相关性,有效提高字符识别效率。
-
公开(公告)号:CN112541544A
公开(公告)日:2021-03-23
申请号:CN202011461440.9
申请日:2020-12-09
Applicant: 福州大学
IPC: G06K9/62 , G06F16/951 , G06Q50/26
Abstract: 本发明涉及一种基于深度学习的垃圾分类方法。首先使用爬虫爬取并构建深度学习训练集,将该版数据集称为初始数据集;然后使用不同的网络结构在初始数据集的基础上训练模型,得到多个模型;接着使用这些模型结合爬虫进行数据的自动爬取、清洗、打标,完成对初始数据集的自动扩充,构建最终版数据集;最后选出表现最好的网络结构作为主干网络,在最终构建的数据集上训练模型,并且使用各种优化策略进行优化,提升模型的准确率与鲁棒性。
-
公开(公告)号:CN112258557A
公开(公告)日:2021-01-22
申请号:CN202011149132.2
申请日:2020-10-23
Applicant: 福州大学
Abstract: 本发明涉及一种基于空间注意力特征聚合的视觉跟踪方法,包括步骤:S1:获取视频或图像序列的首帧标注信息,将首帧图像输入孪生网络跟踪架构的模板分支,对区域目标提取浅层特征、中间层特征、深层特征;其中孪生网络跟踪架构包括模板分支与搜索分支;S2:构造空间注意力掩模,计算掩模运算后的特征;S3:对浅层特征计算精确性质量值,对中间层特征计算鲁棒性质量值;基于区域特征聚合方法选取特征通道,连接特征张量作为聚合结果;S4:根据先验标签使用回归方法调整深层部分网络参数,重计算深层特征的输出并聚合,利用得到的所有聚合特征作为模板在孪生网络跟踪架构的搜索分支经过卷积运算得到输出结果。本发明能够有效的进行视觉跟踪。
-
公开(公告)号:CN112257639A
公开(公告)日:2021-01-22
申请号:CN202011188103.7
申请日:2020-10-30
Applicant: 福州大学
Abstract: 本发明涉及一种基于人体骨架的学生学习行为识别方法,包括以下步骤:步骤S1:采集教室场景下的学生行为视频,并提取学生行为图像,构建图像数据集;步骤S2:根据得到图像数据集,采用AlphaPose提取人体骨骼关键点及其坐标和置信度;步骤S3:根据得到的人体骨骼关键点及其坐标和置信度,对人体骨骼关键点进行预处理,并依据人体部位进行编码转换为图像,并构建人体运动特征;步骤S4:将处理后的图像输入到神经网络分类器中进行分类,得到分类结果。本发明能够有效地对学生行为进行识别。
-
公开(公告)号:CN112232371A
公开(公告)日:2021-01-15
申请号:CN202010978381.6
申请日:2020-09-17
Applicant: 福州大学
Abstract: 本发明涉及一种基于YOLOv3与文本识别的美式车牌识别方法,包括步骤S1:采集美式车牌中各个州的车牌的图像数据,构成美式车牌图像集;步骤S2:对下载好的图像进行人工标注,生成xml文件,以符合YOLOv3神经网络模型训练的要求;步骤S3:对步骤S2中处理好的数据进行若干数据增强,用以提高图像质量,利于之后的训练与识别;步骤S4:训练YOLOv3神经网络模型,并用训练好的权重检测出车牌的特征区域;步骤S5:车牌特殊字符作为新样本加入deep‑text文本识别工具训练,将检测出的车牌特征区域通过训练好的文本识别工具提取出对应的字符信息。本发明提出方法的准确率高,时效性好,对于美式的车牌识别具有实际应用意义。
-
公开(公告)号:CN112200138A
公开(公告)日:2021-01-08
申请号:CN202011184624.5
申请日:2020-10-30
Applicant: 福州大学
Abstract: 本发明涉及一种基于计算机视觉的课堂学情分析方法,包括以下步骤:步骤S1:获取人体图像数据,并进行预处理,得到人体图像数据集;步骤S2:根据得到的人体图像数据集,训练YOLOv4目标检测算法模型,并基于训练后的YOLOv4目标检测算法模型对课堂实时视频进行逐帧人体检测,得到每个目标的人体位置信息;步骤S3:根据得到每个目标的人体位置信息,采用CrowdPose拥挤场景姿态估计算法进行姿态估计,获得每个目标的骨骼关键点分布信息;步骤S4:根据得到的每个目标的骨骼关键点分布信息,分别进行行为检测和情绪分析;步骤S5:根据行为检测、人脸识别,情绪分析结果,进一步实现目标的课堂考勤和获得识别目标的课堂参与度。本发明有效的获取每个学生课堂状态,供教师改进教学策略,提高课堂教学质量。
-
公开(公告)号:CN112070768A
公开(公告)日:2020-12-11
申请号:CN202010973846.9
申请日:2020-09-16
Applicant: 福州大学
Abstract: 本发明涉及一种基于Anchor‑Free的实时实例分割方法,包括以下步骤:步骤S1:获取实例分割数据集,并预处理后生成训练集;步骤S2:基于改进的目标检测网络CenterNet和CAG‑Mask模块,构建基于Anchor‑Free的实时实例分割模型;步骤S3:根据训练集训练基于Anchor‑Free的实时实例分割模型,得到训练好的分割模型;步骤S4:根据训练好的分割模型对待检测图像或视频数据进行处理,获得实例分割效果。本发明有效缩短了分割时间,可用于实时的实例分割。
-
公开(公告)号:CN107705560B
公开(公告)日:2020-10-02
申请号:CN201711032264.5
申请日:2017-10-30
Applicant: 福州大学
Abstract: 本发明公开了一种融合视觉特征和卷积神经网络的道路拥堵检测方法,包括步骤:1)对输入的影像视频序列进行移动前景检测与背景建模,得到原始影像的背景和初步移动前景;2)将初步移动前景集合输入卷积神经网络,进行移动车辆识别,排除其他非移动车辆的移动前景;3)利用最终移动前景集合计算反映交通状态的图像视觉特征,图像视觉特征包括交通密度、交通速度、交通占有率和交通流量;4)计算图像光流直方图的信息熵;5)利用交通密度、交通速度、交通占有率、交通流量和光流直方图的信息熵,判断交通道路拥堵状态。本发明融合多维度的视觉特征与卷积神经网络,可以更加准确的判断道路的拥堵程度。
-
公开(公告)号:CN111310659A
公开(公告)日:2020-06-19
申请号:CN202010094821.1
申请日:2020-02-14
Applicant: 福州大学
Abstract: 本发明公开了一种基于增进式图卷积神经网络的人体动作识别方法,首先提取与类别无关的时空对象和计算不同对象提取的特征,并对动作信息检测单元进行定义和表示;其次计算每帧表示的信息熵,选取熵小的帧作为整个视频的关键帧动作;然后将选取的关键动作帧图像输入到人体姿态估计模型;接着通过微小的变换、修剪和对齐的方法自动选择感兴趣的区域方面;最后在检测器检测人体动作的时候产生的冗余检测信息采用非极大值抑制算法来消除,通过适当的数据增强,以便让对称空间变换网络加上单人姿态估计网络适应不完美的人体区域定位结果。本发明可以有效的提高人体动作识别的准确率。
-
公开(公告)号:CN107705254B
公开(公告)日:2020-04-10
申请号:CN201711068726.9
申请日:2017-11-03
Applicant: 福州大学
Abstract: 本发明提供一种基于街景图的城市环境评估方法:首先通过道路检索获取街景图,进行配准以实现街景拼接;对比暗通道与均值灰度图来判断图像是否有雾的方法,并对有雾图像进行基于暗原色先验算法的去雾,同时利用导向滤波对去雾效果进行了优化;通过设定不同颜色空间中的颜色通道阈值,提出了针对蓝天检测与绿化检测的2BGR与2GBR图像分割方法,通过分析连通区域对检测结果进行二次筛选;最后,针对对比度、绿化率与蓝天率给出了各自的评估函数,提出了融合对比度、绿化率与蓝天率的评估方案。通过在多个城市上进行的实验验证了所提出方案的有效性,该方案具有灵活、速度快与成本低等优点,能够达到客观评估城市环境的目的。
-
-
-
-
-
-
-
-
-