-
公开(公告)号:CN112686245A
公开(公告)日:2021-04-20
申请号:CN202110001257.9
申请日:2021-01-04
Applicant: 福州大学
Abstract: 本发明涉及一种基于字符响应的字符和文本并行检测方法,包括以下步骤:步骤S1:采集含有文本的图片,标注字符区域和文本区域,构建字符和文本图片数据集;步骤S2:对文本图片数据集预处理,得到预处理后的文本图片数据集;步骤S3:基于深度卷积网络和自适应阈值构建字符和文本并行检测网络,并使用预处理后的文本图片数据集训练网络;步骤S4:将待识别的图片送入训练好的字符和文本并行检测网络,得到字符和文本的分割图像,对分割图像后处理,得到最终的检测结果。本发明能并行检测字符和文本,网络性能好,泛化能力强,适用于各种复杂场景的字符和文本检测任务。
-
公开(公告)号:CN112528730A
公开(公告)日:2021-03-19
申请号:CN202011128387.0
申请日:2020-10-20
Applicant: 福州大学
Abstract: 本发明涉及一种匈牙利算法下基于空间约束的成本矩阵优化方法,首先获取保存好的所有被跟踪目标的外观特征向量集合,然后获取该帧中所有行人检测的结果,并将他们结合构造初始的成本矩阵;接着根据之前被跟踪的目标的信息利用卡尔曼滤波来估计该目标的当前位置,根据估计位置和检测结果的相对关系来修改成本矩阵的权重,用于后续的指派任务;最后利用匈牙利算法获得成本矩阵的最优指派,据此将检测结果进行分配,并且更新和保存被跟踪目标的外貌特征。本发明能够根据视频场景来有效改善匈牙利算法的匹配效果,去除一些不合理的匹配。
-
公开(公告)号:CN112364883A
公开(公告)日:2021-02-12
申请号:CN202010976987.6
申请日:2020-09-17
Applicant: 福州大学
Abstract: 本发明涉及一种基于单阶段目标检测和deeptext识别网络的美式车牌识别方法,步骤S1:获取美式车牌数据集,并预处理后生成训练集;步骤S2:根据车牌检测特点修改目标检测网络CornerNet‑Squeeze;步骤S3:使用检测端训练集训练改进的CornerNet‑Squeeze,使用数据集MJSynth和SynthText训练deeptext识别网络;步骤S4:将检训练集送入训练好的检测网络,输出车牌号码、年检信息、州名三部分图像,将这三部分图像送入识别网络,识别网络输出的文本信息通过手工修改错误信息,得到识别标签;步骤S5:使用获得的识别标签对识别网络进行进一步训练,获得高精度的识别网络。步骤S6:使用步骤S5训练好的高精度识别网络对待检测的美式车牌图像检测,输出结果。本发明能够有效地对美式车牌进行识别。
-
公开(公告)号:CN112364734A
公开(公告)日:2021-02-12
申请号:CN202011188613.4
申请日:2020-10-30
Applicant: 福州大学
Abstract: 本发明涉及一种基于yolov4和CenterNet的异常着装检测方法,包括以下步骤:步骤S1:获取异常着装数据并对其进行数据预处理,构建异常着装检测数据集;步骤S2:对yolov4模型和CenterNet模型的超参数分别进行调优,并分别训练;步骤S3:根据训练后的yolov4检测模型进行目标检测,获取预测结果,并解码预测结果后利用非极大值抑制筛选出最终的预测框;步骤S4:根据训练后CenterNet检测模型进行目标检测,计算输入数据的中心点和角点热力图,预测关键点位置,将得到的热力图归一化后找出K个极大值点作为候选目标;通过中心点计算得到最终目标框;步骤S5:根据得到的最终的预测框和最终目标框在原图上进行绘制,添加类别名称和置信度等信息后得到结果图。本发明能够有效识别异常着装现象。
-
公开(公告)号:CN112200076A
公开(公告)日:2021-01-08
申请号:CN202011076008.8
申请日:2020-10-10
Applicant: 福州大学
Abstract: 本发明涉及一种基于头部躯干特征进行多目标跟踪的方法,包括以下步骤:步骤S1:获取视频中行人检测的结果,并对结果进行筛选,删除错误的检测结果;步骤S2:对筛选后的检测结果进行预处理后,输入到人体关键点检测网络中,得到所有的人体关键点;步骤S3:对得到的每个行人的关键点进行筛选,选取头部以及肩膀的关键点进行组合,获得头部躯干特征;步骤S4:将得到的单个行人的头部躯干特征输入到跟踪器中进行初始化,进而对目标进行跟踪。本发明能够有效地提取检测框中的头部躯干特征,使得跟踪器在初始化的时候获取的有效信息占比最大化。
-
公开(公告)号:CN112149557A
公开(公告)日:2020-12-29
申请号:CN202011000236.7
申请日:2020-09-22
Applicant: 福州大学
Abstract: 本发明涉及一种基于人脸识别的人物身份跟踪方法及系统,包括步骤:采用人脸数据集训练神经网络;采集待识别身份人物的人脸图片,并构建待识别人脸身份库;根据输入的视频帧,使用训练好的yolov3人脸检测模型,检测每帧图像的人脸位置;将检测到的人脸使用训练好的神经网络提取特征,并与待识别人脸身份库中的人脸特征进行比对确定身份,初始化待跟踪的人脸目标;对人脸对应的人物身份进行跟踪。本发明对于跟踪的目标可以确认到人物的id。
-
公开(公告)号:CN112070048A
公开(公告)日:2020-12-11
申请号:CN202010972154.2
申请日:2020-09-16
Applicant: 福州大学
Abstract: 本发明涉及一种基于RDSNet的车辆属性识别方法,包括以下步骤:步骤S1:采集车辆图片,处理后分为车辆数据集和车辆属性数据集;步骤S2:构建基于RDSNet的网络模型,并根据车辆数据集训练,得到车辆检测模型;步骤S3:构建基于细粒度分类的车辆属性分类网络模型,并根据车辆属性数据集训练,得到车辆属性分类模型;步骤S4:将待测复杂场景图像,通过车辆检测模型,得到待测复杂场景图像每一个汽车的精确边界框;步骤S5:将步骤S4处理后的图像,输入车辆属性分类模型,获取车辆属性信息;步骤S6:将得到的汽车的精确边界框和车辆属性信息,标注于待测复杂场景图像中。本发明有效的提升了车辆属性识别的精确程度。
-
公开(公告)号:CN107330431B
公开(公告)日:2020-09-01
申请号:CN201710522004.X
申请日:2017-06-30
Applicant: 福州大学
Abstract: 本发明涉及一种基于K‑means聚类拟合的显著性检测优化方法,包括以下步骤:步骤S1:提取图像的场景GIST特征;步骤S2:提取图像的颜色直方图特征;步骤S3:根据场景GIST特征和颜色直方图特征计算图像间的相似性;步骤S4:根据图像间的相似性对图像集合进行K‑means聚类,分成k个相互独立的图像簇;步骤S5:计算每个图像簇的拟合模型;步骤S6:判断新的输入图像所属的图像簇,将该图像簇的拟合模型作用在输入图像的显著性图上进行优化。该方法适用于多种显著性检测算法的优化,优化效果明显。
-
公开(公告)号:CN109672874B
公开(公告)日:2020-08-11
申请号:CN201910157230.1
申请日:2019-03-01
Applicant: 福州大学
IPC: H04N13/15 , H04N13/106
Abstract: 本发明涉及一种时空一致的立体视频颜色校正方法,首先从参考视频帧和目标视频帧中每隔a帧选出一对关键帧,在每个时间滑动窗口内选取k对;接着对于每一对关键帧,采用图像颜色校正算法获得目标视频关键帧的初始颜色校正结果帧,然后利用引导滤波计算得到和输入的目标视频关键帧结构更加一致的颜色校正结果视频帧;然后在时间滑动窗口内,利用改进的直方图匹配求出目标视频关键帧和颜色校正后的目标视频关键帧之间的颜色映射函数;最后用该颜色映射函数校正位于时间滑动窗口中心的a帧目标视频帧,得到a帧颜色校正后的最终目标视频帧。本发明对于立体视频颜色差异能够起到很好的校正效果。
-
公开(公告)号:CN111339845A
公开(公告)日:2020-06-26
申请号:CN202010089473.9
申请日:2020-02-13
Applicant: 福州大学
Abstract: 本发明公开了一种自动区分并增强时空特征的图卷积神经网络的人体动作识别方法,首先是基于神经网络自编码器的构造;其次通过一种新的表示无监督学习训练原理实现自动编码器的人体骨架信息压缩和自动编码降维;然后设计一种机制来在任何给定的时间步生成参考向量,将能够相对于生成的参考旋转隐藏状态;接着对旋转储存器网络模型构建原理及实现;最后对旋转储存器网络模型的激活函数进行分析和选择并对自动区分并增强时空特征的图卷积神经网络模型构建。本发明可以有效的提高人体动作识别的准确率。
-
-
-
-
-
-
-
-
-