-
公开(公告)号:CN109344736B
公开(公告)日:2021-07-09
申请号:CN201811060252.8
申请日:2018-09-12
Applicant: 苏州大学
Abstract: 本发明公开了一种基于联合学习的静态图像人群计数方法,包括:预训练阶段:使用50层残差网络在ImageNet2012分类数据集上训练得到参数初始化分类器网络,通过一个Softmax将图像块分类成三种类别,分别对应三个回归器;回归器训练阶段:将训练数据集的每一个图像块都分别输入三个回归器,同一个图像块都会得到不同的计数结果,将计数误差最小的回归器作为分类标签来标记该图像块,用三种类别的图像块分别对各自的回归器进行微调;分类器训练阶段:随机抽取样本并且保证每种类别的标签数量一致;联合训练阶段:对分类器和回归器不断迭代训练。本发明能够在人群密集场景中进行计数与密度估计,具有一定的尺度自适应性,提高了计数精度与模型泛化能力。
-
公开(公告)号:CN104866829B
公开(公告)日:2019-02-19
申请号:CN201510270145.8
申请日:2015-05-25
Applicant: 苏州大学
IPC: G06K9/00
Abstract: 本发明公开了一种基于特征学习的跨年龄人脸验证方法,包括如下步骤:(1)获取待对比的两幅人脸图像;(2)利用人脸特征点定位的方法对两幅人脸图像进行对齐操作;(3)分别对每幅图像进行特征提取,方法为:①通过深度卷积神经网络自动提取高层语义特征;②计算图像的LBP直方图特征;③将①和②中获得的特征进行融合,表达为特征向量;(4)采用余弦相似度方法计算步骤(3)获得的两幅图像的特征向量之间的距离,据此判断两幅图像是否来自同一人。本发明首次将深度网络应用到跨年龄人脸验证,同时创造性地将手工设计的LBP直方图特征与深度网络自主学习的特征进行融合,实现高层语义特征与低层特征的互补,具有更好的准确率。
-
公开(公告)号:CN109344736A
公开(公告)日:2019-02-15
申请号:CN201811060252.8
申请日:2018-09-12
Applicant: 苏州大学
Abstract: 本发明公开了一种基于联合学习的静态图像人群计数方法,包括:预训练阶段:使用50层残差网络在ImageNet2012分类数据集上训练得到参数初始化分类器网络,通过一个Softmax将图像块分类成三种类别,分别对应三个回归器;回归器训练阶段:将训练数据集的每一个图像块都分别输入三个回归器,同一个图像块都会得到不同的计数结果,将计数误差最小的回归器作为分类标签来标记该图像块,用三种类别的图像块分别对各自的回归器进行微调;分类器训练阶段:随机抽取样本并且保证每种类别的标签数量一致;联合训练阶段:对分类器和回归器不断迭代训练。本发明能够在人群密集场景中进行计数与密度估计,具有一定的尺度自适应性,提高了计数精度与模型泛化能力。
-
公开(公告)号:CN109165612A
公开(公告)日:2019-01-08
申请号:CN201811007813.8
申请日:2018-08-31
Applicant: 苏州大学
Abstract: 本发明公开了一种基于深度特征和双向KNN排序优化的行人再识别方法,包括三个阶段,特征提取阶段:获得在ImageNet数据集上预训练好的ResNet-50模型,利用行人再识别数据集对预训练模型进行微调,利用微调后的模型分别对目标图像和候选集图像进行特征提取以获得特征向量;度量学习阶段:对提取的两个特征向量通过度量学习学习出一个度量函数来衡量它们间的相似性,根据它们的距离远近得到初始排名;重排序阶段:根据双向KNN关系和双向KNN集,计算两张图像间的双向KNN距离,将初始距离和双向KNN距离加权求和作为最终的距离,得到优化后的排名。本发明能够更好的表示一个行人,在初始排名的基础上提高行人再识别的精度,减轻人力和机器资源的压力,具有良好的普适性。
-
公开(公告)号:CN105303571A
公开(公告)日:2016-02-03
申请号:CN201510692276.5
申请日:2015-10-23
Applicant: 苏州大学
CPC classification number: G06K9/4671 , G06T2207/10016 , G06T2207/10024 , G06T2207/30232
Abstract: 本发明公开了一种用于视频处理的时空显著性检测方法,其特征在于,利用颜色通道的直方图、光流大小直方图、光流方向直方图获得特征对比度;对于第一帧图像,采用与视频帧中心点的距离作为位置先验,对于其它帧,采用前一帧中显著目标所在的位置作为位置先验,获得位置先验显著图;利用像素的光流大小和方向获得速度先验显著图和加速度先验显著图;提供时间维度上的一个滑动窗口进行像素均值滤波,获得背景先验显著图;将特征对比度与各先验显著图进行融合,获得时空显著图,并实现对目标的检测。本发明更适用于运动目标出现位置不可知的监控视频的检测,可以更好地获取运动显著目标。
-
公开(公告)号:CN102903124B
公开(公告)日:2015-08-19
申请号:CN201210338285.0
申请日:2012-09-13
Applicant: 苏州大学
IPC: G06T7/20
Abstract: 本发明公开了一种运动目标检测方法,包括背景建模和前景检测,采用混合高斯模型进行背景建模并进行模型更新,获得B个高斯分布,对于待检测的帧图像中的一个像素点,如果在上述排序后的B个高斯分布中,至少有一个高斯分布与当前像素值匹配,则该像素点为一个背景像素,否则判定其为前景像素。本发明能有效地过滤前景噪声,得到十分干净的背景,既保留高效的去噪效果又增强了前景目标检测的准确性和完整性。
-
公开(公告)号:CN104616316A
公开(公告)日:2015-05-13
申请号:CN201410222664.2
申请日:2014-05-23
Applicant: 苏州大学
IPC: G06T7/20
CPC classification number: G06K9/00335
Abstract: 本发明公开了一种基于阈值矩阵和特征融合视觉单词的人物行为识别方法,其特征在于,包括以下步骤:首先采用显著度计算法提取视觉单词,具体如下,对训练视频帧进行显著度计算,取得人物所在的区域位置,然后对区域内外采取不同的阈值进行兴趣点检测,基于取得的兴趣点计算出视觉单词;然后对取得的视觉单词进行建模分析,建立动作的模型;在动作模型建立好后,对测试视频帧采用同样的显著度计算法提取视觉单词,然后将取得的视觉单词作为输入,放入建好的动作模型中进行分类;最后将动作的分类结果作为测试视频中人物行为的标签返回出来,完成人物行为的识别。本发明可以有效地解决复杂场景下人物行为识别准确度的问题。
-
公开(公告)号:CN104268546A
公开(公告)日:2015-01-07
申请号:CN201410229426.4
申请日:2014-05-28
Applicant: 苏州大学
CPC classification number: G06K9/00765 , G06K9/6212
Abstract: 本发明公开了一种基于主题模型的动态场景分类方法,其特征在于,包括以下步骤:(1)利用SIFT特征对图像进行局部描述,生成原始图像对应的SIFT特征图,经过时间的变化,原始图像对应的特征之间就会有相对位置上的变化,这种变化构成了流场,形成了动态视频SIFT流;(2)对动态视频SIFT流场图像进行均匀分块,分为网格对每一个分块按SIFT流的方向量化为8个柄的直方图,形成72维特征矢量,利用K-mean聚类形成为视觉单词;(3)引入单词先验信息扩展原始TMBP模型,并将原始TMBP模型和Konwledge-TMBP模型利用量化后的视觉单词建模,得到场景分类的结果。利用SIFT流信息描述动态场景中的动态信息生成视觉单词,并考虑视觉单词对表达主题是否有意义的问题,在主题模型的推理中加入视觉单词的权重,从而达到提高动态场景的分类速度与精度的目的。
-
公开(公告)号:CN101446937A
公开(公告)日:2009-06-03
申请号:CN200810243785.X
申请日:2008-12-15
Applicant: 苏州大学
IPC: G06F13/42
Abstract: 本发明公开了一种MON08接口批量数据传输方法,其特征在于,包括下列步骤:(1)编写串行通信程序,编译成目标代码,所述串行通信程序中,在数据传输时,对每64~512字节数据进行一次校验;(2)采用基本的MON08接口通信方法将步骤(1)的目标代码发送至目标MCU的内存中并执行;(3)由编写的串行通信程序将所需传输的数据传输至目标MCU,实现MON08接口的批量数据传输。本发明通过改进MON08接口的通信流程及通信方式,大大加快了大批量数据传输的通信速度,同时保证了数据传输的可靠性。
-
公开(公告)号:CN109359684B
公开(公告)日:2021-10-29
申请号:CN201811208757.4
申请日:2018-10-17
Applicant: 苏州大学
IPC: G06K9/62
Abstract: 本发明公开了一种基于弱监督定位和子类别相似性度量的细粒度车型识别方法,包括:1)弱监督定位:用预训练好的VGG‑Net网络对图像目标定位,对卷积层的掩码图进行处理,获取目标物体的边界框;2)构建模糊相似矩阵:将训练集中定位后的图片利用B‑CNN网络提取特征,根据softmax分类结果得到度量各子类别相似性的模糊相似矩阵;3)采样组建三元组集:在模糊相似矩阵基础上采样组建三元组;4)联合学习改进的损失函数:利用改进的损失函数联合学习改进的triplet损失和加权的softmax损失对同一子类别样本间距离进行限制,增大不同子类别样本间的距离。本发明较原始模型定位更加准确、并且在分类准确性上有明显提升,能够很好地对车辆目标进行定位。
-
-
-
-
-
-
-
-
-