-
公开(公告)号:CN116682044A
公开(公告)日:2023-09-01
申请号:CN202310703244.5
申请日:2023-06-14
Applicant: 福州大学
IPC: G06V20/40 , G06V10/764 , G06V10/22 , G06V10/774 , G06V10/82 , G06N3/0464 , G06V10/766 , G06N3/048
Abstract: 本发明涉及一种基于时空对比的影像视频识别分析和评估方法。包括以下步骤:步骤S1、获取相关应用场景的影像视频,对影像中包含的目标框、类别或质量分数进行标注构建数据集;步骤S2、构建基于大数据集预训练的ResNet‑101和Transformer结合的骨干网络,并根据步骤S1构建的数据集训练,提取成对影像视频的时空特征;步骤S3、设计层级感知注意力模块和基于时空对比的差异编码器,对比步骤S2中成对视频的时空特征差异;步骤S4、对单一影像视频的时空特征和成对影像视频之间的差异特征进行识别分析,输出最终的分析和评估结果。
-
公开(公告)号:CN110084327B
公开(公告)日:2023-04-07
申请号:CN201910359135.X
申请日:2019-04-30
Applicant: 福州大学
Abstract: 本发明涉及一种基于视角自适应深度网络的票据手写数字识别方法及系统,该方法包括以下步骤:步骤A:使用带类别标签的数字图像训练视角自适应的深度网络;步骤B:对彩色票据图像进行预处理,得到二值图像;步骤C:使用积分投影法对二值图像进行分割,得到各数字图像;步骤D:将各数字图像分别输入到深度网络进行数字识别,得到分类结果。该方法及系统解决了票据手写数字识别中存在的字形字体变化导致识别出错、视角变化对识别造成影响的问题,有利于提高票据手写数字识别的准确度和速度。
-
公开(公告)号:CN112200076B
公开(公告)日:2023-02-21
申请号:CN202011076008.8
申请日:2020-10-10
Applicant: 福州大学
Abstract: 本发明涉及一种基于头部躯干特征进行多目标跟踪的方法,包括以下步骤:步骤S1:获取视频中行人检测的结果,并对结果进行筛选,删除错误的检测结果;步骤S2:对筛选后的检测结果进行预处理后,输入到人体关键点检测网络中,得到所有的人体关键点;步骤S3:对得到的每个行人的关键点进行筛选,选取头部以及肩膀的关键点进行组合,获得头部躯干特征;步骤S4:将得到的单个行人的头部躯干特征输入到跟踪器中进行初始化,进而对目标进行跟踪。本发明能够有效地提取检测框中的头部躯干特征,使得跟踪器在初始化的时候获取的有效信息占比最大化。
-
公开(公告)号:CN115661163A
公开(公告)日:2023-01-31
申请号:CN202211390317.1
申请日:2022-11-03
Applicant: 福州大学
IPC: G06T7/10 , G06N3/08 , G06N3/0455 , G06N3/0464
Abstract: 本发明提出一种基于泛化特征和区域建议损失函数的小样本分割方法,提出了基于泛化特征和区域建议损失函数的小样本分割方法,对于输入的待分割图像,首先进行多种数据增强以及可变性卷积网络的训练,使得模型具体有更强的泛化能力,然后采用通道注意力和空间注意力模块提取更加高级的深度特征。最后提取出图像的边缘特征以及将区域建议引入到模型当中,充分考虑图像的边缘以及位置的准确定位,最后引入小样本分割机制,在低数据量的前提下进行模型微调,以达到准确的图像分割结果。
-
公开(公告)号:CN115205741A
公开(公告)日:2022-10-18
申请号:CN202210808388.2
申请日:2022-07-11
Applicant: 福州大学
Abstract: 本发明涉及一种基于非关键帧扰动的视频序列样本增强方法,包括步骤S1:在网络训练过程中,将输入视频序列样本送入视频行人重识别网络模型中,并根据网络输出结果计算损失;步骤S2:对视频序列样本计算其梯度方向;步骤S3:对视频序列中每一个视频帧计算该视频帧下的梯度方向绝对值的总和;步骤S4:根据视频序列中每一帧的总和值,计算获得视频序列中前n_k个总和值最大的帧的索引,并视为此视频序列中的关键帧;步骤S5:根据关键帧的索引,对视频序列中其他非关键帧进行随机高斯噪声扰动;步骤S6:经过扰动后的非关键帧替换掉原视频序列中对应索引的帧,构建新的视频序列样本,再次送入视频重识别网络中进行后续训练。
-
公开(公告)号:CN111274958B
公开(公告)日:2022-10-04
申请号:CN202010065378.5
申请日:2020-01-20
Applicant: 福州大学
Abstract: 本发明涉及一种网络参数自纠正的行人重识别方法及系统,该方法包括:A、使用已标注类标签行人视频训练深度网络得到参考网络模型;B、利用参考网络模型估计未标注类标签行人视频的伪标签,并选取一定比例训练深度网络得到目标网络模型;C、从选取的未标注视频中再选取一定比例,打乱其伪标签,训练深度网络得到偏差网络模型;D、计算噪声自适应损失,对目标网络模型中错误网络参数更新进行自纠正;E、将参考网络模型替换成目标网络模型,重复步骤B‑D,并增加未标注视频的选取比例直到所有未标注视频被选中,得到最终的目标网络模型;F、使用目标网络模型对查询视频进行行人重识别。该方法及系统有利于提高行人重识别的准确性与鲁棒性。
-
公开(公告)号:CN112149557B
公开(公告)日:2022-08-09
申请号:CN202011000236.7
申请日:2020-09-22
Applicant: 福州大学
IPC: G06V40/16 , G06V20/40 , G06K9/62 , G06N3/04 , G06N3/08 , G06V10/774 , G06V10/764
Abstract: 本发明涉及一种基于人脸识别的人物身份跟踪方法及系统,包括步骤:采用人脸数据集训练神经网络;采集待识别身份人物的人脸图片,并构建待识别人脸身份库;根据输入的视频帧,使用训练好的yolov3人脸检测模型,检测每帧图像的人脸位置;将检测到的人脸使用训练好的神经网络提取特征,并与待识别人脸身份库中的人脸特征进行比对确定身份,初始化待跟踪的人脸目标;对人脸对应的人物身份进行跟踪。本发明对于跟踪的目标可以确认到人物的id。
-
公开(公告)号:CN112070768B
公开(公告)日:2022-08-09
申请号:CN202010973846.9
申请日:2020-09-16
Applicant: 福州大学
Abstract: 本发明涉及一种基于Anchor‑Free的实时实例分割方法,包括以下步骤:步骤S1:获取实例分割数据集,并预处理后生成训练集;步骤S2:基于改进的目标检测网络CenterNet和CAG‑Mask模块,构建基于Anchor‑Free的实时实例分割模型;步骤S3:根据训练集训练基于Anchor‑Free的实时实例分割模型,得到训练好的分割模型;步骤S4:根据训练好的分割模型对待检测图像或视频数据进行处理,获得实例分割效果。本发明有效缩短了分割时间,可用于实时的实例分割。
-
公开(公告)号:CN112070049B
公开(公告)日:2022-08-09
申请号:CN202010972176.9
申请日:2020-09-16
Applicant: 福州大学
Abstract: 本发明涉及一种基于BiSeNet的自动驾驶场景下的语义分割方法,包括以下步骤:步骤S1:采集城市街道图像数据,并预处理;步骤S2:对预处理后的图像数据进行标注,得到标注后的图像数据;步骤S3:对标注后的图像数据进行数据增强,并将增强后的图像数据作为训练集;步骤S4:构建BiSeNet神经网络模型,并基于训练集训练模型;步骤S5:对摄像头采集的视频信息进行预处理,根据训练后的BiSeNet神经网络模型对摄像头中的城市街道进行语义分割。本发明能够有效提高自动驾驶的安全性和对道路场景分割的准确性、快速性。
-
公开(公告)号:CN112070048B
公开(公告)日:2022-08-09
申请号:CN202010972154.2
申请日:2020-09-16
Applicant: 福州大学
IPC: G06V20/54 , G06V10/774 , G06V10/764 , G06V10/82 , G06K9/62 , G06N3/04
Abstract: 本发明涉及一种基于RDSNet的车辆属性识别方法,包括以下步骤:步骤S1:采集车辆图片,处理后分为车辆数据集和车辆属性数据集;步骤S2:构建基于RDSNet的网络模型,并根据车辆数据集训练,得到车辆检测模型;步骤S3:构建基于细粒度分类的车辆属性分类网络模型,并根据车辆属性数据集训练,得到车辆属性分类模型;步骤S4:将待测复杂场景图像,通过车辆检测模型,得到待测复杂场景图像每一个汽车的精确边界框;步骤S5:将步骤S4处理后的图像,输入车辆属性分类模型,获取车辆属性信息;步骤S6:将得到的汽车的精确边界框和车辆属性信息,标注于待测复杂场景图像中。本发明有效的提升了车辆属性识别的精确程度。
-
-
-
-
-
-
-
-
-