-
公开(公告)号:CN112070075A
公开(公告)日:2020-12-11
申请号:CN202011264121.9
申请日:2020-11-12
Applicant: 之江实验室
Abstract: 本发明公开一种基于协同回归的人体检测方法,该方法首先预训练深度卷积神经网络骨干模型;然后在模型的输出特征层分别预测人头中心点、人体中心点及对应人体宽高;同时在模型的输出特征层分别回归指向人体中心点的向量和指向人头中心点的向量;训练最小化损失函数,得到人体检测模型;最后将测试集图片输入训练好的模型,利用人头中心点、人体中心点预测值及两者互相指向的向量确定人体位置,结合人体宽高预测值得到人体检测结果。本发明通过充分考虑人群密集场景人体检出率低的问题,利用人群密集场景中人头相较于人体不易产生互相遮挡的特点,提出基于人头中心点、人体中心点协同回归的人体检测方法,在人群密集场景中的人体检出率高。
-
公开(公告)号:CN113297906B
公开(公告)日:2022-09-09
申请号:CN202110423900.7
申请日:2021-04-20
Abstract: 本发明公开了一种基于知识蒸馏的行人重识别模型压缩方法及评价方法,压缩方法包括如下步骤:S1:预训练行人重识别教师模型;S2:构建行人重识别学生模型;S3:构建低阶状态蒸馏损失和高阶结构蒸馏损失,将教师模型的知识迁移到学生模型,联合优化行人重识别任务损失和蒸馏损失进行训练;评价方法还包括如下步骤:S4:将底库测试集输入训练好的学生模型,获得底库行人特征;S5:将查询测试集输入训练好的学生模型,获得行人特征,与底库行人特征进行相似度计算,经度量排序找到与之具有相同身份的底库行人图片,计算时间效率和性能准确度。
-
公开(公告)号:CN113379606B
公开(公告)日:2021-12-07
申请号:CN202110934749.3
申请日:2021-08-16
Applicant: 之江实验室
Abstract: 本发明属于计算机视觉、图像处理领域,涉及一种基于预训练生成模型的人脸超分辨方法,包括:步骤一、采集并将低分辨率图像输入至特征提取模块,提取特征信息;步骤二、将特征信息输入至编码器,得到通道数为输入尺寸8倍的隐式矩阵,隐式矩阵通过分离模块特征分解后获得隐式向量,与人脸标签数据通过级联方式,分别输入至预训练生成模型中,得到生成特征;步骤三、将生成特征传递给解码器,并融合特征提取模块提取的特征信息,经解码操作后输出目标高分辨率图像。本发明可以将低分辨率的人脸进行高倍率的放大,最高可以获得64倍的超分结果,并且超分辨结果保持较好的保真性,使放大的图像在保真度和纹理真实度方面有更好的改进。
-
公开(公告)号:CN113284051B
公开(公告)日:2021-12-07
申请号:CN202110834275.5
申请日:2021-07-23
Applicant: 之江实验室
IPC: G06T3/40
Abstract: 本发明属于计算机视觉、图像处理领域,涉及一种基于频率分解多注意力机制的人脸超分辨方法,利用小波变换及其逆变换均可逆的性质,将输入的低分辨率人脸图像进行频率分解,针对不同频率的特征,采用不同的核卷积构建基础模块,自适应集成不同感受野的特征,利用残差注意力模块,包含像素、空间和通道注意力机制,对不同频率的特征分别进行处理,低频部分纹理采用较少计算量的注意力,高频部分采用更多的残差注意力模块,在保持计算量的同时将更多的网络应用于高频部分,利用预训练的人脸关键点提取网络进行关键点提取并进行反馈,增强轮廓特征,利用生成抵抗网络增强纹理特征。
-
公开(公告)号:CN113516240A
公开(公告)日:2021-10-19
申请号:CN202110697462.3
申请日:2021-06-23
Applicant: 之江实验室
Abstract: 本发明涉及计算机视觉领域,涉及一种神经网络结构化渐进剪枝方法和系统,该方法包括:步骤S1:设定神经网络每层的裁剪率、剪枝标准及神经网络训练周期数;步骤S2:输入图片以训练神经网络,在一定训练周期内,每层裁剪率从零逐渐增加到设定的裁剪率,根据剪枝标准,确定每层的冗余信息并置为0;步骤S3:达到设定的裁剪率后,移除神经网络中的冗余信息,并重构原始的网络层;步骤S4:神经网络重构后,继续进行训练,直至达到设定的神经网络训练周期。本发明操作简单,步骤少,在正常神经网络训练过程中就能到达剪枝的目的,而且无需剪枝后的精调过程,因此可以大幅减少处理时间,相比现有技术在达到较高的裁剪率的同时能获得较高的性能。
-
公开(公告)号:CN112257683A
公开(公告)日:2021-01-22
申请号:CN202011417659.9
申请日:2020-12-07
Applicant: 之江实验室
Abstract: 本发明公开了一种面向车辆运行轨迹监测的跨镜追踪方法,该方法包括采用生成对抗网络扩充车辆视频数据集,并在扩充后的数据集上训练基于轻量化卷积神经网络的车辆检测模型;将车辆检测模型部署到所有摄像头上,并创建摄像头间的位置关联字典;采用车辆检测模型提取摄像头中拍摄到的车辆的表观特征及在镜头内的连续位置,根据车辆的移动方向预测出车辆可能出现的下一组摄像头;将车辆的表观特征广播至下一组摄像头中,并根据表观特征在下一组摄像头中对车辆进行追踪,最终完成车辆的跨镜追踪。本发明所采用的跨镜追踪方法,能够实现对车辆的运行轨迹进行实时监测,当发现被监测车辆脱离预设路线时发出预警,可以协助监管人员快速排查被监测车辆。
-
-
-
-
-