-
公开(公告)号:CN114998238B
公开(公告)日:2024-08-27
申请号:CN202210577050.0
申请日:2022-05-25
Applicant: 燕山大学 , 唐山惠唐物联科技有限公司 , 河钢集团有限公司
IPC: G06T7/00 , G06T7/246 , G06V10/762 , G06V10/80 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了一种基于深度学习的板坯实时检测及宏跟踪方法,属于连铸生产过程信息化领域,包括:结合现场辊道实际,分区段安装若干个摄像头拍摄整个辊道;采集连铸板坯传输线运行图像,并进行板坯、天车的标注;使用标注的数据集训练改进YOLOV5模型得到用于板坯检测的优化模型;用板坯检测模型对现场辊道上的各板坯进行实时检测,并将板坯检测结果配合多目标跟踪算法生成各板坯的跟踪ID;将板坯调度系统中的板坯号与该跟踪ID进行匹配,实现板坯在全部摄像头下的实时检测及宏跟踪,并能识别板坯的上下线。本发明能够实现连铸板坯在辊道上的实时检测和宏跟踪,解决板坯运动过程中信息丢失等问题,为连铸连轧高效生产奠定了坚实基础。
-
公开(公告)号:CN118279395A
公开(公告)日:2024-07-02
申请号:CN202410440958.6
申请日:2024-04-12
Applicant: 燕山大学
IPC: G06T7/73 , G06T7/66 , G06V10/762 , G06T5/70 , G06T7/136 , G06T7/13 , G06T5/30 , G06T5/40 , G06T7/80
Abstract: 本发明公开了一种利用辅助模板校正的靶标板位姿检测方法,属于计算机视觉检测技术领域,包括以下步骤:步骤S1:联合辅助模板策略生成模板集,联合辅助模板为N+1模板;步骤S2:建立子区域降噪模块,降低轮廓噪声干扰;步骤S3:建立聚类加权处理模块,获得最终圆心坐标;步骤S4:结合检测到的圆心坐标,完成靶标位姿检测。本发明能够适用于靶标板尺寸参数及安装位置信息都未知的情况且具有较高的鲁棒性以及适应性。
-
公开(公告)号:CN110852335B
公开(公告)日:2023-06-20
申请号:CN201911136702.1
申请日:2019-11-19
Applicant: 燕山大学
Abstract: 一种基于多颜色特征融合与深度网络的目标跟踪系统,所述系统包括图像获取单元、表观特征模型建立单元、目标位置估计单元和目标尺度评估单元。本发明首先利用深度网络的浅层提取目标的空间特征,同时分析多种颜色特征特点,利用融合后的颜色特征描述目标的全局特征,其次通过对两种特征信息的学习得到两个滤波模板,然后分别计算其特征响应,从而获得目标的精确位置,本发明提供一种快速有效的尺度评估策略,从而获得目标的精确尺度评估。
-
公开(公告)号:CN112669282A
公开(公告)日:2021-04-16
申请号:CN202011592476.0
申请日:2020-12-29
Applicant: 燕山大学
IPC: G06T7/00
Abstract: 本发明涉及一种基于深度神经网络的脊柱定位方法,属于计算机视觉跟踪技术领域,包括以下步骤:A、采用传统特征提取模块提取传统通用特征;B、采用医学特征提取模块提取专门的医学影像特征;C、采用定位模块对传统特征提取模块和医学特征提取模块提取的特征进行处理,得到锥体与椎间盘的具体位置;D、将上述模块组成系统,采用多任务损失分别对定位网络I和定位网络Ⅱ进行单独训练,且两个网络训练采用的定位标签以及医学影像图片相同。本发明融合了传统深度网络可使用预训练模型的特点以及医学影像特征提取网络的少样本学习的特点,并引入新的损失函数以及相应的标签制作方法,并使用多任务损失,从而提升了脊柱定位的精度以及鲁棒性。
-
公开(公告)号:CN108363988A
公开(公告)日:2018-08-03
申请号:CN201810195310.1
申请日:2018-03-09
Applicant: 燕山大学
Abstract: 本发明公开了一种结合图像特征和流体力学特征的人群计数方法,首先获取实验视频图像,利用混合高斯建模法获取前景运动目标,提取运动前景的图像特征;进一步的将视频运动像素点视为粒子,根据光流法处理基础上求取粒子速度信息,建立粒子切应力模型;通过切应力模型求取运动粒子切应力,对粒子切应力加和来表征人群粒子的流体力学特征;进一步的结合的图像和流体特征构建特征向量,将其作为输入向量完成回归模型训练,进一步实现对场景中人群数目的估计,实现对视频监控智能检测分析。本发明具有设计合理、应用广泛、预测准确等优点。
-
公开(公告)号:CN103606093A
公开(公告)日:2014-02-26
申请号:CN201310514316.8
申请日:2013-10-28
Applicant: 燕山大学
Abstract: 本发明公开了一种基于人体特征的连锁机构VIP客户智能服务系统,包括身份识别模块、智能提醒模块和消费者购物记录分析模块;所述的身份识别模块是由1个3D深度摄像头、2台高清摄像头、处理器,以及与其相连接的人脸识别模块、身高体型识别模块、客户数据库无线传输模块和客户信息传输模块组成;所述的智能提醒模块包括迎宾玩具传输模块、手持小型信息接收模块、无线耳机、液晶显示屏、处理器和报警模块组成;所述的消费者购物记录分析模块是由人脸识别仪、数据记录分析模块、处理器、客户数据库、信息传输模块、手机短信提醒模块组成。本发明为连锁机构的VIP客户识别、智能购物提供了一种新的平台。
-
公开(公告)号:CN113256680A
公开(公告)日:2021-08-13
申请号:CN202110523935.8
申请日:2021-05-13
Applicant: 燕山大学
IPC: G06T7/246
Abstract: 本发明涉及一种基于无监督学习高精度的目标跟踪系统,包括图像采集模块,用于视频图像的获取;跟踪模块,包括跟踪器1和跟踪器2,用于获得图像的特征和目标矩形框;选择模块,包括两层全连接层和softmax层,所述全连接层包括线性全连接层和Relu激活函数;将待选跟踪器的特征图和跟踪器结果作为输入,通过选择器输出最好的跟踪结果。本发明通过两个不同跟踪器得到结果经选择器判断得到最优结果输出,在后续帧中继续跟踪,以适应不同场景下的目标跟踪,而且结构简单,能够有效提高跟踪精度和鲁棒性。
-
公开(公告)号:CN112560651A
公开(公告)日:2021-03-26
申请号:CN202011449867.7
申请日:2020-12-09
Applicant: 燕山大学
Abstract: 本发明公开了基于深度网络和目标分割结合的目标跟踪方法及装置,包括:获取目标图像和全局图像,利用孪生网络算法对所述目标区域图像和全局图像进行目标跟踪,得到跟踪结果;利用目标检测算法对所述全局图像进行目标跟踪,得到检测结果;检测同类间物体的跟踪漂移情况,利用基于目标跟踪轨迹的校正策略,对所述跟踪结果进行纠正;在纠正后的跟踪结果和检测结果中进行择优选择,得到初步坐标位置;利用分割算法对所述初步坐标位置进行分割,得到由若干轮廓节点组成的分割结果,得到最终的跟踪结果。本发明融合了孪生网络算法和目标分割算法的优点,提升跟踪精度保证运行速度,并且对孪生网络存在的类间跟踪漂移问题进行改善。
-
公开(公告)号:CN110852335A
公开(公告)日:2020-02-28
申请号:CN201911136702.1
申请日:2019-11-19
Applicant: 燕山大学
Abstract: 一种基于多颜色特征融合与深度网络的目标跟踪系统,所述系统包括图像获取单元、表观特征模型建立单元、目标位置估计单元和目标尺度评估单元。本发明首先利用深度网络的浅层提取目标的空间特征,同时分析多种颜色特征特点,利用融合后的颜色特征描述目标的全局特征,其次通过对两种特征信息的学习得到两个滤波模板,然后分别计算其特征响应,从而获得目标的精确位置,本发明提供一种快速有效的尺度评估策略,从而获得目标的精确尺度评估。
-
公开(公告)号:CN109522844A
公开(公告)日:2019-03-26
申请号:CN201811375169.X
申请日:2018-11-19
Applicant: 燕山大学
Abstract: 本发明公开了一种社交亲密度确定方法及系统。该方法包括:获取摄像头采集的图像;采用级联神经网络检测所述图像中的人脸信息;采用卷积神经网络确定检测到的人脸信息的稀疏表示;以人脸信息的稀疏表示为输入,采用分类器对人脸进行分类,得到代表不同行为人的人脸;以不同行为人的人脸作为目标进行跟踪,并获取各行为人的行为信息,所述行为信息包括行为人之间的距离信息以及行为人之间的交谈行为;根据各行为人的行为信息确定行为人之间的亲密度。本发明提供的社交亲密度确定方法及系统能够基于摄像头监控自动获取行为人之间的亲密度。
-
-
-
-
-
-
-
-
-