-
公开(公告)号:CN109697727A
公开(公告)日:2019-04-30
申请号:CN201811425898.1
申请日:2018-11-27
Applicant: 哈尔滨工业大学(深圳)
Abstract: 本发明提供了一种基于相关滤波和度量学习的目标跟踪方法、系统及存储介质,该目标跟踪方法包括:步骤S1:在跟踪视频的第一帧获取目标的大小和位置;步骤S2:根据得到的目标信息获取目标特征和与目标相似的负样本并训练相关滤波的模板;步骤S3:通过训练得到的模板预测目标的位置,并根据响应图得到此次预测的置信度来判断是否使用度量学习网络来精确定位目标。本发明的有益效果是:本发明针对目标追踪视频的特点,先使用相关滤波模型来对当前帧进行预测,找出和目标相近的候选区域;针对这些候选区域,使用深度网络来判断其与目标的相似度;对目标追踪来说,其是对相关滤波模型的优化,加入了度量学习算法,提出了使用度量学习来优化相关滤波结果的方法;从而能准确、实时地追踪目标。
-
公开(公告)号:CN107704877A
公开(公告)日:2018-02-16
申请号:CN201710928967.X
申请日:2017-10-09
Applicant: 哈尔滨工业大学深圳研究生院
Abstract: 本发明提供了一种基于深度学习的图像隐私感知方法,包括以下步骤:S1、构建带类别标注的隐私分类数据集,使用迁移学习的方法训练隐私感知网络;S2、使用面向隐私感知的深度卷积神经网络完成隐私图像的识别;S3、根据神经网络深层卷积特征提取注意力分布图,并定位注意力集中区域完成对图像隐私区域的感知。本发明的有益效果是:基于深度神经网络完成了端到端的训练和测试,可以准确地区分隐私图像并定位图像中的隐私区域,方便对图像中的隐私信息进行选择性保护。
-
公开(公告)号:CN115187808B
公开(公告)日:2025-05-06
申请号:CN202210761753.9
申请日:2022-06-30
Applicant: 哈尔滨工业大学(深圳)
IPC: G06V10/764 , G06V10/82 , G06V10/20 , G06N3/08
Abstract: 本发明提供了一种基于图像的电子元器件缺陷检测方法,包括:步骤1:初始训练数据集;步骤2:训练初始分类模型;步骤3:判断是否出现新类别图像,若是,那么执行步骤4,否则执行步骤A1;步骤4:收集新类别训练数据;步骤5:增量调整初始模型;步骤6:更新后的分类模型,然后执行步骤A1;步骤A1:对测试图像进行分类;步骤A2:图像进入相应的预处理模型。本发明的有益效果是:本发明将持续学习方法引入电容识别任务有效缓解灾难性遗忘并提升模型识别准确率,在图像分类领域中,经过训练的深度神经网络分类模型能够识别出图像中不同类别的物体,并且已经可以达到较高的识别率。
-
公开(公告)号:CN115375906A
公开(公告)日:2022-11-22
申请号:CN202210319737.4
申请日:2022-03-29
Applicant: 哈尔滨工业大学(深圳)
IPC: G06V10/40 , G06V10/762 , G06V10/776 , G06K9/62
Abstract: 本发明提供了一种基于空间向量分解的边界剥离聚类方法及系统,该边界剥离聚类方法包括:步骤1,输入步骤:输入数据集合;步骤2,边界剥离步骤:根据对象邻域分布特征判别对象类型,以剥离边界点;步骤3,簇骨架构建步骤:依据传递闭包关系确定簇的骨架;步骤4,边界关联步骤:建立边界与簇骨架之间的隶属关系完成聚类;步骤5,输出步骤:输出聚类结果。本发明的有益效果是:本发明不仅解决了现有边界剥离聚类倾向于分布均匀、球形簇的局限,同时提升了本发明在复杂分布、高维数据下的表现。
-
公开(公告)号:CN115147632A
公开(公告)日:2022-10-04
申请号:CN202210800775.1
申请日:2022-07-08
Applicant: 哈尔滨工业大学(深圳)
IPC: G06V10/762 , G06V10/82 , G06V20/70 , G06N3/04 , G06N3/08
Abstract: 本发明公开一种基于密度峰值聚类算法的图像类别自动标注方法及装置,包括卷积自编码器模型训练和卷积编码器‑聚类联合训练,将待标注的图像数据集输入到模型训练卷积自编码器模块,然后取出训练好的卷积编码器模块,将图像数据降维到低维特征向量空间;将低维特征向量输入到卷积编码器‑聚类联合训练模块,在特征向量空间使用密度峰值聚类方法选择候选聚类中心并找到高置信度数据集合,将高置信度数据集合类别作为真实标签训练卷积编码器模块,得到可信度高的聚类结果,最后用特征向量类别对输入的无标签图像数据进行类别标注。本发明可对无标签图像数据实现自动类别标注,解决了当前人工标注类别耗时长、成本高、准确率低、效率差的问题。
-
公开(公告)号:CN106878674B
公开(公告)日:2019-08-30
申请号:CN201710016093.0
申请日:2017-01-10
Applicant: 哈尔滨工业大学深圳研究生院
Abstract: 本发明提出了一种鲁棒性比较强的基于监控视频的停车检测方法,基于前景历史像素点和图像相似度进行静止目标检测,主要包括混合高斯模型提取前景运动目标、通过可疑静止像素矩阵得到可疑静止目标区域、图像相似度的计算。在车辆识别阶段,对Haar分类器进行了改进,使得其在级联强分类器训练时避免出现训练过程滞停,可以保证在训练过程中避免出现滞停现象,使得级联强分类器训练鲁棒性增强。在车辆检测过程中,只将通过静止目标检测得到的静止目标区域和其邻域放到Haar分类器进行检测,而不是将整张图像放入Haar分类器检测,这样可以大大减少计算量,提高算法的实时性。另外,还采用基于混合高斯模型的遮挡检测解决暂时性遮挡的问题,降低算法的漏检率。
-
公开(公告)号:CN115187808A
公开(公告)日:2022-10-14
申请号:CN202210761753.9
申请日:2022-06-30
Applicant: 哈尔滨工业大学(深圳)
IPC: G06V10/764 , G06V10/82 , G06V10/20 , G06N3/08
Abstract: 本发明提供了一种基于图像的电子元器件缺陷检测方法,包括:步骤1:初始训练数据集;步骤2:训练初始分类模型;步骤3:判断是否出现新类别图像,若是,那么执行步骤4,否则执行步骤A1;步骤4:收集新类别训练数据;步骤5:增量调整初始模型;步骤6:更新后的分类模型,然后执行步骤A1;步骤A1:对测试图像进行分类;步骤A2:图像进入相应的预处理模型。本发明的有益效果是:本发明将持续学习方法引入电容识别任务有效缓解灾难性遗忘并提升模型识别准确率,在图像分类领域中,经过训练的深度神经网络分类模型能够识别出图像中不同类别的物体,并且已经可以达到较高的识别率。
-
公开(公告)号:CN108509889A
公开(公告)日:2018-09-07
申请号:CN201810257192.2
申请日:2018-03-27
Applicant: 哈尔滨工业大学深圳研究生院
IPC: G06K9/00
Abstract: 本发明提出了一种基于肤色分割的近景异常行为检测方法及装置,可完成对视频中的人体近景行为进行检测,所述方法包括:采用基于深度学习的肤色分割算法对视频进行背景去除,以保留当前图像中的肤色区域。另外通过手掌几何特征对肤色区域进行建模,以获得手掌位置。最后通过光流能量模型对运动的手部进行能量判断以实现行为异常与否的判断。本发明基于肤色分割可以有效的过滤背景中的干扰信息,对近景人体行为进行检测。
-
公开(公告)号:CN106878674A
公开(公告)日:2017-06-20
申请号:CN201710016093.0
申请日:2017-01-10
Applicant: 哈尔滨工业大学深圳研究生院
Abstract: 本发明提出了一种鲁棒性比较强的基于监控视频的停车检测方法,基于前景历史像素点和图像相似度进行静止目标检测,主要包括混合高斯模型提取前景运动目标、通过可疑静止像素矩阵得到可疑静止目标区域、图像相似度的计算。在车辆识别阶段,对Haar分类器进行了改进,使得其在级联强分类器训练时避免出现训练过程滞停,可以保证在训练过程中避免出现滞停现象,使得级联强分类器训练鲁棒性增强。在车辆检测过程中,只将通过静止目标检测得到的静止目标区域和其邻域放到Haar分类器进行检测,而不是将整张图像放入Haar分类器检测,这样可以大大减少计算量,提高算法的实时性。另外,还采用基于混合高斯模型的遮挡检测解决暂时性遮挡的问题,降低算法的漏检率。
-
公开(公告)号:CN113205124B
公开(公告)日:2024-08-23
申请号:CN202110457361.9
申请日:2021-04-27
Applicant: 哈尔滨工业大学(深圳)
IPC: G06F18/23213 , G06F18/214 , G06F16/2458 , G06F16/215
Abstract: 本发明提供了一种基于密度峰值的高维真实场景下的聚类方法、系统及存储介质,该聚类方法包括步骤1:采集数据;步骤2:对采集的数据进行清洗操作;步骤3:计算近邻参数K、局部密度、密度权重以及边界度;步骤4:使用CSM模型确定聚类中心;步骤5:划分剩余数据对象;步骤6:依据划分结果,整理出辅助决策的可用信息;步骤7:输出可用信息。本发明的有益效果是:本发明解决了参数设置不合理导致的密度度量失衡问题,解决了中心选取偏差和参数敏感的问题,且具有良好的鲁棒性,可以对含有噪声的多密度和高维数据集进行有效的聚类,并具有较高的精度。
-
-
-
-
-
-
-
-
-