-
公开(公告)号:CN109472226A
公开(公告)日:2019-03-15
申请号:CN201811268351.5
申请日:2018-10-29
Applicant: 上海交通大学
CPC classification number: G06K9/00335 , G06K9/00711 , G06N3/0454
Abstract: 本发明涉及一种基于深度学习的睡觉行为检测方法,包括以下步骤:1)获取待测视频流,经切帧处理获得离散图片;2)依次将所述离散图片输入一训练好的卷积神经网络模型,检测获得睡觉姿势初步检测结果及相应置信度;3)基于多尺度检测方法对所有睡觉姿势初步检测结果进行筛选,获得睡觉姿势最终检测结果;4)根据所述睡觉姿势最终检测结果,采用基于位置信息的目标跟踪算法判断是否存在睡觉行为。与现有技术相比,本发明在目标检测模型中采用了特征融合提升准确率,同时采用了高准确率的睡觉行为决策算法,避免睡觉行为误判。
-
公开(公告)号:CN108090417A
公开(公告)日:2018-05-29
申请号:CN201711204234.8
申请日:2017-11-27
Applicant: 上海交通大学
Abstract: 本发明涉及一种基于卷积神经网络的人脸检测方法,包括以下步骤:1)建立人脸检测模型,该模型采用RFCN网络结构,所述RFCN网络结构包括基于特征融合的特征提取层;2)获取样本集;3)对步骤1)中建立的人脸检测模型进行训练;4)以训练后的人脸检测模型对待测图片进行人脸检测。与现有技术相比,本发明具有准确率和检全率较高、对于复杂场景下有良好的适应效果等优点。
-
公开(公告)号:CN110427977B
公开(公告)日:2021-07-27
申请号:CN201910620066.3
申请日:2019-07-10
Applicant: 上海交通大学
IPC: G06K9/62 , G06Q50/20 , G10L17/04 , G10L21/0208
Abstract: 本发明涉及一种课堂互动行为的检测方法,从教师授课的视频和音频中提取出课堂互动行为特征,其特征在于,该方法包括以下步骤:1)将视频的一帧载入预训练的R‑FCN的网络中,提取对象动作特征;将音频的一帧载入预训练的支持向量机分类器中,提取对象语音特征;2)遍历课堂中的每个对象,采用步骤1)所述方法提取对象动作特征和对象语音特征,从而建立每个对象的教学对象模型;3)基于每个对象的教学对象模型,通过预建立的映射关系表,进行课堂互动行为标注。与现有技术相比,本发明检测准确率高,适用于各类课堂视频场景。
-
公开(公告)号:CN107977618B
公开(公告)日:2021-05-11
申请号:CN201711215320.9
申请日:2017-11-28
Applicant: 上海交通大学
Abstract: 本发明涉及一种基于双层级联神经网络的人脸对齐方法,包括以下步骤:1)训练一两级神经网络模型,该两级神经网络模型包括用于检测人脸轮廓特征点和五官区域的第一级网络和用于检测五官区域特征点的第二级网络,所述五官区域包括眉眼区域、鼻子区域和嘴巴区域;2)通过所述两级神经网络模型对待测图片进行68特征点检测,实现人脸对齐。与现有技术相比,本发明具有检测精度高、能很好地适应较复杂背景等优点。
-
公开(公告)号:CN110852222A
公开(公告)日:2020-02-28
申请号:CN201911051299.2
申请日:2019-10-31
Applicant: 上海交通大学
Abstract: 本发明涉及一种基于目标检测的校园走廊场景智能监控方法,其特征在于,该方法使用基于YOLOv3目标检测网络搭建的目标检测模型,通过由深度可分离卷积组成的倒置残差模块进行特征提取,实现对监控视频画面的实时目标检测,并将轻量级目标检测网络分散部署到手机、开发板等廉价设备中解决针对校园监控场景做打架和摔倒等危险行为实时检测报警,与现有技术相比,本发明具有保证准确度的情况下降低计算量,且降低部署成本的等优点。
-
公开(公告)号:CN110427977A
公开(公告)日:2019-11-08
申请号:CN201910620066.3
申请日:2019-07-10
Applicant: 上海交通大学
IPC: G06K9/62 , G06Q50/20 , G10L17/04 , G10L21/0208
Abstract: 本发明涉及一种课堂互动行为的检测方法,从教师授课的视频和音频中提取出课堂互动行为特征,其特征在于,该方法包括以下步骤:1)将视频的一帧载入预训练的R-FCN的网络中,提取对象动作特征;将音频的一帧载入预训练的支持向量机分类器中,提取对象语音特征;2)遍历课堂中的每个对象,采用步骤1)所述方法提取对象动作特征和对象语音特征,从而建立每个对象的教学对象模型;3)基于每个对象的教学对象模型,通过预建立的映射关系表,进行课堂互动行为标注。与现有技术相比,本发明检测准确率高,适用于各类课堂视频场景。
-
公开(公告)号:CN111524183A
公开(公告)日:2020-08-11
申请号:CN202010263407.9
申请日:2020-04-07
Applicant: 上海交通大学
Abstract: 本发明涉及一种基于透视投影变换的目标行列定位方法,该方法通过对教室中学生的行列定位实现对学生身份的确定,包括以下步骤:获取课堂视频;从所述课堂视频中提取帧图像,对所述帧图像进行畸变校正处理;检测所述帧图像中所有的人体关节点模型;基于所述人体关节点模型所有目标的获得目标代表点,对所述目标代表点进行投影变换,获得各目标的俯视投影坐标;对所述俯视投影坐标进行聚类,获得各目标的行列定位结果。与现有技术相比,本发明代替人脸识别技术达到识别学生身份的目的,具有准确率高和速度快等优点。
-
-
公开(公告)号:CN109472228A
公开(公告)日:2019-03-15
申请号:CN201811269446.9
申请日:2018-10-29
Applicant: 上海交通大学
CPC classification number: G06K9/00845 , G06K9/00335 , G06N3/0454
Abstract: 本发明涉及一种基于深度学习的哈欠检测方法,包括以下步骤:1)收集样本,创建哈欠样本数据库;2)基于所述哈欠样本数据库构建并训练一哈欠初步检测模型,该哈欠初步检测模型的特征提取过程中,在高层语义特征基础上融合低层局部细微特征;3)利用所述哈欠初步检测模型对待测图像进行检测,获得初步检测结果;4)在所述初步检测结果中利用人脸关键点信息提取嘴巴区域;5)以椭圆拟合嘴巴,将椭圆长短轴分别对应的上下嘴唇间与左右嘴角间的距离,获得张嘴程度,根据所述张嘴程度判定是否打哈欠。与现有技术相比,本发明以特征融合的模型检测结果为初步检测结果,结合嘴巴区域特征分析确定最终检测结果,具有准确率高和检全率高等优点。
-
公开(公告)号:CN108305297A
公开(公告)日:2018-07-20
申请号:CN201711403739.7
申请日:2017-12-22
Applicant: 上海交通大学
IPC: G06T9/00
Abstract: 本发明涉及一种基于多维张量字典学习算法的图像处理方法,该方法将多维信号以张量表达实现图像处理;所述张量表达过程为:通过求解一张量稀疏编码模型获得张量字典及相应的张量系数,获得与输入的多维信号相应的张量。本发明采用基于交替迭代优化的有效求解算法进行张量稀疏编码模型的求解,包括固定字典求稀疏表示算法和固定稀疏编码求字典的算法。与现有技术相比,本发明提出的张量稀疏编码模型,在保持数据本身的空间结构的同时考虑各个维度之间的相关性,具有计算复杂度低、计算效率高等优点。
-
-
-
-
-
-
-
-
-