-
公开(公告)号:CN108710868B
公开(公告)日:2020-09-04
申请号:CN201810582712.7
申请日:2018-06-05
Applicant: 中国石油大学(华东)
Abstract: 本发明公开了一种基于复杂场景下的人体关键点检测系统及方法,该方法包含:输入监控视频信息,得到单帧静态图和多帧光流图;对单帧静态图通过卷积操作提取特征以得到特征图,为解决复杂场景下干扰目标对人员目标检测的影响,采用人员目标检测算法,以对特征图的实际置信度与预设置信度进行判别,得到离散化人员目标包围盒;对多帧光流图采用光流堆叠来形成二维矢量场;提取离散化人员目标包围盒中特征,得到特征图,获得部位的关键点和关联程度,利用预测器为人体每个部位生成部位置信图,通过部位置信图和二维矢量场实现人体关键点的精准检测。本发明的系统及方法用于复杂场景下的人体关键点检测,实现人员目标关键点的精准检测。
-
公开(公告)号:CN105721199B
公开(公告)日:2019-06-07
申请号:CN201610040259.8
申请日:2016-01-18
Applicant: 中国石油大学(华东)
IPC: H04L12/24
Abstract: 本发明提出了一种基于核密度估计与模糊推理系统的实时云服务瓶颈检测方法,包括以下步骤:步骤1、启动实时云环境,运行云服务;步骤2、启动实时云服务状态参数获取组件;步骤3、获取某一段时间内集群正常运行环境下的云服务状态参数,采用核密度估计模型对其进行建模,同时开启模糊推理系统;步骤4、新获得的状态参数输入到该模糊推理系统中,计算出瓶颈指数;步骤5、设置阈值,观察每一个云服务瓶颈指数的历史规律,如果在某一时间段内一直超过阈值,则启动预警机制。本发明的方法能够实时获取云集群中每一个服务的运行状态,存入数据仓库;实现对每一个实时云服务的瓶颈检测;当实时云服务的瓶颈指数长时间超过某一阈值,启动预警机制。
-
公开(公告)号:CN109191761A
公开(公告)日:2019-01-11
申请号:CN201811034833.4
申请日:2018-09-06
Applicant: 中国石油大学(华东)
Abstract: 本发明提出了一种基于火焰多特征融合的火灾识别方法,根据这个算法开发了一种火焰多特征融合的火灾识别系统。其原理在于通过该系统调用摄像头视频监控画面,使用系统的后台检测算法对画面进行处理,该方法首先进行运动检测筛选运动火灾像素与RGB颜色模型筛选火焰颜色像素结合作为图像预处理模块,采用的基于帧间差分法检测运算速度快并且不包含复杂运算,对于环境要求不高,不需要考虑黑天等因素的变化,采用的RGB/HIS颜色模型较为稳定;然后根据火焰烟雾、面积变化以及形状变化性质利用火焰像素点数量、凸包以及尖角对火焰进行特征判断;最终结合成熟的支持向量机进行验证;满足以上条件进行报警。本方法能够应用于社会安全等摄像头实时监控系统。
-
公开(公告)号:CN108710868A
公开(公告)日:2018-10-26
申请号:CN201810582712.7
申请日:2018-06-05
Applicant: 中国石油大学(华东)
Abstract: 本发明公开了一种基于复杂场景下的人体关键点检测系统及方法,该方法包含:输入监控视频信息,得到单帧静态图和多帧光流图;对单帧静态图通过卷积操作提取特征以得到特征图,为解决复杂场景下干扰目标对人员目标检测的影响,采用人员目标检测算法,以对特征图的实际置信度与预设置信度进行判别,得到离散化人员目标包围盒;对多帧光流图采用光流堆叠来形成二维矢量场;提取离散化人员目标包围盒中特征,得到特征图,获得部位的关键点和关联程度,利用预测器为人体每个部位生成部位置信图,通过部位置信图和二维矢量场实现人体关键点的精准检测。本发明的系统及方法用于复杂场景下的人体关键点检测,实现人员目标关键点的精准检测。
-
公开(公告)号:CN106874883A
公开(公告)日:2017-06-20
申请号:CN201710106887.6
申请日:2017-02-27
Applicant: 中国石油大学(华东)
CPC classification number: G06K9/00228 , G06F9/5044 , G06K9/00268 , G06K9/00288 , G06K9/00979 , G06K9/6256 , G06K9/6267
Abstract: 本发明公开了一种基于深度学习的实时人脸检测方法及系统,该方法包括以下步骤:构建的人脸图像数据库和卷积神经网络,利用构建的数据库对神经网络进行训练,得到最优的卷积神经网络以及人脸数据库中的人脸特征;构建storm拓扑结构;数据源输入组件将实时视频流分发给各数据处理组件,数据处理组件通过卷积神经网络对人脸和非人脸进行分类、人脸边界框回归、坐标定位,得到人脸检测的结果。本发明通过优化后的卷积神经网络对人脸图像数据进行特征提取,有效地提高了特征提取的准确率,将Storm架构和卷积神经网络的特征提取相结合,提高了人脸检测的效率。
-
公开(公告)号:CN105678216A
公开(公告)日:2016-06-15
申请号:CN201511003082.6
申请日:2015-12-21
Applicant: 中国石油大学(华东)
CPC classification number: G06K9/00718 , G06K9/6269
Abstract: 本发明提出了一种基于深度学习的时空数据流视频行为识别方法。相比于传统使用单数据流,也就是单一视频流的深度学习方法,本发明使用了时空数据流,即空间流和时间流,空间流从静态的视频帧中识别视频中的目标类别,而时间流从视频中的运动成分中识别目标的运动,最后将这两者的分类结果相融合,得到最终的行为类别。本发明将目标和运动分开识别,能够减少神经网络计算的负担,同时有效提高准确率。
-
公开(公告)号:CN105496371A
公开(公告)日:2016-04-20
申请号:CN201511003083.0
申请日:2015-12-21
Applicant: 中国石油大学(华东)
IPC: A61B5/02 , A61B5/0245 , A61B5/16 , A61B5/00
CPC classification number: A61B5/0004 , A61B5/02 , A61B5/0245 , A61B5/165 , A61B5/6803 , A61B5/7271
Abstract: 本发明提出了一种呼叫中心服务人员的情绪监测方法,结合呼叫中心服务人员工作场景的特点,通过采集和分析服务人员的语音和脉搏信号,监测服务人员的情绪状态,使用光电容积法采集脉搏信号,传感器可以直接安装在耳麦上,丝毫不影响穿戴者的正常工作,而且通过语音和脉搏双重特征分析情绪,可以使识别结果更加准确可靠。
-
公开(公告)号:CN106611157B
公开(公告)日:2019-11-29
申请号:CN201611013187.4
申请日:2016-11-17
Applicant: 中国石油大学(华东)
IPC: G06K9/00
Abstract: 本发明公开了一种基于光流定位和滑动窗口检测的多人姿态识别方法,获取视频中图像光流向量,得到图像中运动物体的区域,利用基于身体部分的方法对运动物体区域进行人体姿态识别;对提取的运动区域进行滑动窗口检测,比对图像与身体部分外形模板的相似度;利用树形结构对人体建模;使用直方图相交操作来完成特征匹配识别工作;计算运动区域的对应关系,进行多人姿态识别、人数统计和人员跟踪。本发明利用大数据的治理体系,利用视频数据在问题发现、预测预警、监控度量等方面做出了贡献。本发明通过摄像头获取视频信息,自动识别视频中的人体目标,获得人员流量统计,人员追踪、人员区域分布等信息;在监控系统智能化管理中具有十分重要的意义。
-
公开(公告)号:CN109784269A
公开(公告)日:2019-05-21
申请号:CN201910026604.6
申请日:2019-01-11
Applicant: 中国石油大学(华东)
Abstract: 本发明公开了一种基于时空联合的人体动作检测和定位方法,该方法包含:以未修剪的视频作为输入,通过数据预处理将其分成多个等长的短单元,从中随机地进行稀疏采样,通过双流卷积神经网络以提取时空特征;然后进入时空联合网络判断动作的发生区间,得到一组动作评分波形图,将动作波形图输入GTAG网络,通过设置不同的阈值以实现不同的定位精度要求以及获得不同粒度的动作提议段;所有动作提议段经过动作分类器检测动作的类别,通过完整性过滤器以精细修正动作发生的时间边界,实现复杂场景下的人体动作检测和定位。本发明的方法能够应用于人体遮挡严重、姿态多变以及干扰物较多的实际场景中,可以很好地处理具有不同时间结构的活动类别。
-
公开(公告)号:CN105868691A
公开(公告)日:2016-08-17
申请号:CN201610148321.5
申请日:2016-03-08
Applicant: 中国石油大学(华东)
CPC classification number: G06K9/00724 , G06K2209/21 , G06K2209/23 , G06N3/02
Abstract: 本发明提出一种基于快速区域卷积神经网络的城市车辆追踪方法,在监控视频中标注要追踪的车辆,输入到神经网络中进行快速的训练得到模型,通过识别道路监控视频来判断该车辆是否在此路口出现,在地图上标注出所有检测到此车辆的摄像头的位置,按照时间顺序连接,就可以得到此车辆的行驶轨迹,使用车辆的历史轨迹可以预测车辆的行驶方向,在最短的时间找出车辆在城市中的位置。
-
-
-
-
-
-
-
-
-