-
公开(公告)号:CN112651360A
公开(公告)日:2021-04-13
申请号:CN202011616955.1
申请日:2020-12-31
Applicant: 福州大学
Abstract: 本发明提出一种小样本下骨架动作识别方法,包括以下步骤;步骤S1:构建序列到序列生成网络对骨架运动序列进行生成、构建增强数据集;步骤S2:构建基于时空图卷积的序列质量评估网络,用于解决生成质量欠佳的骨架运动序列会对后续步骤产生负面影响的问题;步骤S3:构建基于多层次骨架分割算法的骨架动作识别网络;步骤S4:整合步骤S1、步骤S2、步骤S3构建的所有网络模型并使用;使用步骤S1的骨架序列生成网络生成骨架运动序列,使用步骤S2的骨架序列质量评估网络过滤步骤S1生成的质量较差的数据,优化数据集,使用步骤S3的骨架动作识别网络基于上述步骤构建的数据集进行骨架动作识别;本发明可用于小样本条件下的骨架动作识别。
-
公开(公告)号:CN112613479A
公开(公告)日:2021-04-06
申请号:CN202110001577.4
申请日:2021-01-04
Applicant: 福州大学
Abstract: 本发明涉及一种基于轻量流式网络和注意力机制的表情识别方法,包括以下步骤:步骤S1:获取表情图像数据集,并预处理;步骤S2:构建包含注意力机制的轻量流式网络,并在网络的最后通过交叉熵损失函数进行分类;步骤S3根据预处理后的表情图像数据集训练包含注意力机制的轻量流式网络;步骤S4:将待测图像数据输入训练后的包含注意力机制的轻量流式网络,得到识别结果。本发明能够有效地对表情图像进行分类,提升了表情图像分类的效果。
-
公开(公告)号:CN112561950A
公开(公告)日:2021-03-26
申请号:CN202011547135.1
申请日:2020-12-24
Applicant: 福州大学
Abstract: 本发明涉及一种PointTrack框架下基于窗函数的点云采样方法,包括以下步骤:步骤S1:获取视频图像帧中所有目标的2D边界框,并输入到神经网络中进行分割,得到对应的前景与背景;步骤S2:根据分割结果对边界框在上下左右四个方向进行扩展,并将扩展后割的结果使用窗函数进行点云采样,分别得到前景和背景相对应的2D点云采样结果;步骤S3:将得到的前景点云进行整合,计算对应的颜色特征向量和形状特征向量,将得到的背景点云进行整合,并计算对应的颜色特征向量、形状特征向量以及类别向量,最终将得到的向量串联输入到PointTrak模型中。本发明能够使用窗函数更好的对点云采样进行控制,可以让采样的点更偏向于反应轮廓信息或者颜色信息,提高PointTrack多目标跟踪效果。
-
公开(公告)号:CN112395841A
公开(公告)日:2021-02-23
申请号:CN202011291822.1
申请日:2020-11-18
Applicant: 福州大学
IPC: G06F40/166 , G06F40/30 , G06K9/62
Abstract: 本发明提出一种基于BERT的自动填补空缺文本方法,包括以下步骤;步骤S1:以公开完型填空CLOTH数据集作为训练数据基础,利用分词器对进行预处理,提取出文章的内容和填空选项;步骤S2:将处理过的数据集通过联合调节所有层中的上下文来预先训练深度双向表示模型;并利用预训练模型提供语言模型,通过额外的输出层对其进行微调,最后以加入问题的位置信息和该语言模型共同组成编码器;步骤S3:用全连接层、gelu激活函数层、归一层和全连接层依次堆叠,构成解码器,并将编码器结果输入到解码器解码;步骤S4:以解码器的输出预测出空格处应该出现的单词;本发明能够实现利用人工智能完成对有空缺的文本进行预测和校对,辅助校对人员进行审查出版书本的工作。
-
公开(公告)号:CN112307919A
公开(公告)日:2021-02-02
申请号:CN202011137363.1
申请日:2020-10-22
Applicant: 福州大学
Abstract: 本发明涉及一种基于改进YOLOv3的单证图像中数字信息区域识别方法,包括步骤:获取手写数字图片,并对获取的手写数字图片集合进行预处理与标注,得到训练集;训练YOLOv3网络,用以检测和识别单证图像手写体数字信息区域;训练卷积神经网络CNN,用以识别单个手写体数字;用训练好的YOLOv3网络和卷积神经网络模型CNN对单证图像中手写数字信息区域的进行检测识别和重识别。本发明有效提升了复杂场景下单证图像中手写数字信息识别的准确率。
-
公开(公告)号:CN112162734A
公开(公告)日:2021-01-01
申请号:CN202011148399.X
申请日:2020-10-23
Applicant: 福州大学
Abstract: 本发明提出集成化的机器学习算法库与统一编程框架(面向深度学习),为一种面向深度学习的模型生成方法,包括以下步骤;步骤S1:指定数据集,顺序组合不同深度学习框架下的数据预处理方法,形成数据预处理模块;步骤S2:选择网络优化器,并配置其参数,形成网络优化器模块;步骤S3:选择一种主体网络结构,所选网络结构可基于不同深度学习框架实现,并配置其训练参数,形成网络结构模块;步骤S4:拼接模型各部分模块,开始模型训练,在训练过程中不断保存最优模型,在结束后得到最终模型准确率;本发明能够克服传统深度学习系统的指定单一框架编程方式的缺点,方便深度学习的应用。
-
公开(公告)号:CN112132130A
公开(公告)日:2020-12-25
申请号:CN202010999847.0
申请日:2020-09-22
Applicant: 福州大学
Abstract: 本发明涉及一种面向全场景的实时性车牌检测方法及系统,包括步骤:生成用于网络训练和测试的训练集和测试集;修改YOLOv3‑tiny网络结构,生成MD‑YOLO模型;采用训练集训练构建的MD‑YOLO模型,并基于mAP选取最优的权重文件;将待检测车牌作为训练好的MD‑YOLO模型的输入,输出带车牌检测框的结果返回。本发明能够完成任意场景下的直接车牌区域提取。
-
公开(公告)号:CN112132005A
公开(公告)日:2020-12-25
申请号:CN202010992907.6
申请日:2020-09-21
Applicant: 福州大学
Abstract: 本发明涉及一种基于聚类分析与模型压缩的人脸检测方法,首先获取人脸检测数据集,对人脸数据集进行K‑means聚类分析,进行锚框数量、大小与数据集适用程度分析,最终生成最适合该数据集的检测锚框;接着将生成的检测锚框应用于深度学习网络中,训练人脸检测网络;最后对训练好的人脸检测网络,进行层剪枝或者通道剪枝后,对网络进行微调,得到更加轻量级的网络;利用该网络对图像、视频进行检测,得到最终的结果。本发明具有检测准确率高与检测速率快并存的优点,能应用于人脸考勤、门禁系统、交通身份核准等场景。
-
公开(公告)号:CN112070176A
公开(公告)日:2020-12-11
申请号:CN202010983942.1
申请日:2020-09-18
Applicant: 福州大学
Abstract: 本发明提出一种免切割的端到端车牌识别方法,包括以下步骤;步骤S1:收集车牌识别数据集,构建用于训练所述识别网络的训练集和测试集;步骤S2:设计用于提取车牌字符特征的特征提取模块;同时提取车牌字符本身的特征和该字符在车牌中的分布特征;步骤S3:设计用于恢复模糊车牌的反卷积模块,进一步优化对车牌字符特征的表述;步骤S4:使用特征提取网络与反卷积模块设计识别网络的输出模块;步骤S5:使用训练集标签对识别网络进行训练;当识别网络输出对应的包含字符概率的概率向量时,通过使用贪心算法得到最终的车牌号码;本发明可以只使用卷积神经网络完成车牌号码的识别过程,同时具有免字符切割,端到端识别、免车牌矫正,快速轻量的特征。
-
公开(公告)号:CN105701502B
公开(公告)日:2020-11-10
申请号:CN201610007726.7
申请日:2016-01-06
Applicant: 福州大学
IPC: G06K9/62
Abstract: 本发明涉及一种基于蒙特卡罗数据均衡的图像自动标注方法,在公共图像库上通过对训练样本图像进行区域分割,分割后具有不同特征描述的区域对应一个标注词,再对各个不同类别的图像集进行蒙特卡罗数据均衡,提取均衡之后各个图像的多尺度特征,最后将提取后的特征向量输入到鲁棒性最小二乘增量极限学习机中进行分类训练,得到图像自动标注中的分类模型。对于待标注的图像,通过对其进行区域分割后,采用相同的多尺度特征融合提取方法,将提取后的特征向量输入到最小二乘增量极限学习机中,即可得到最终的图像标注结果。相比传统图像自动标注方法,本发明的方法能更有效地对图像进行标注,时效性强,可用于大规模图像的自动标注,具有实际应用意义。
-
-
-
-
-
-
-
-
-