-
公开(公告)号:CN107808376A
公开(公告)日:2018-03-16
申请号:CN201711044722.7
申请日:2017-10-31
Applicant: 上海交通大学
CPC classification number: G06T7/0002 , G06K9/00744 , G06K9/00771 , G06K9/6218 , G06K9/6276 , G06T7/254 , G06T2207/10016 , G06T2207/20081 , G06T2207/20084 , G06T2207/30232 , G06T2207/30242
Abstract: 本发明涉及一种基于深度学习的举手检测方法,包括以下步骤:1)收集样本,所述样本为复杂环境样本;2)建立举手检测模型,该举手检测模型基于卷积神经网络结构,并基于所述样本以R-FCN目标检测算法进行训练;3)利用训练后的举手检测模型对待测视频进行举手检测,获得举手框位置。与现有技术相比,本发明具有能够检测复杂环境中的举手动作、准确率检全率高等优点。
-
公开(公告)号:CN110826459B
公开(公告)日:2022-09-30
申请号:CN201911051259.8
申请日:2019-10-31
Applicant: 上海交通大学 , 上海信息产业(集团)有限公司
Abstract: 本发明涉及一种基于姿态估计的可迁移校园暴力行为视频识别方法,该方法包括以下步骤:第一步:数据收集与预处理;第二步:基于姿态估计的可迁移暴力行为判别网络设计;第三步:基于姿态估计的可迁移暴力行为判别网络训练;第四步:用训练好的模型对输入的视频进行校园暴力行为有效识别。与现有技术相比,本发明具有识别精度高等优点。
-
公开(公告)号:CN108229352B
公开(公告)日:2021-09-07
申请号:CN201711397963.X
申请日:2017-12-21
Applicant: 上海交通大学
Abstract: 本发明涉及一种基于深度学习的站立检测方法,该方法包括:1)收集样本,各所述样本包括样本图片和对应的标注文件;2)建立站立检测模型,该站立检测模型基于卷积神经网络结构,并基于所述样本以R‑FCN目标检测算法进行训练,所述站立检测模型包括高年级站立检测模型和低年级站立检测模型;3)利用训练后的站立检测模型对待测视频进行站立检测。与现有技术相比,本发明具有检全率、准确率高,适用于复杂教室环境等优点。
-
公开(公告)号:CN109508663B
公开(公告)日:2021-07-13
申请号:CN201811299473.0
申请日:2018-10-31
Applicant: 上海交通大学
Abstract: 本发明涉及一种基于多层次监督网络的行人重识别方法,该方法通过一多层次监督网络对行人图像提取不同语义层次的特征,进而实现行人重识别;所述多层次监督网络包括一个多层深度卷积神经网络作为主干网络和多个分类模块作为特征提取子网络;主干网络将行人图像转换为不同语义层次的特征图,各分类模块通过监督学习将主干网络提取的各层特征图分别转化为具有区分性的特征向量,所有层次上的特征向量拼接形为最终特征向量,基于该最终特征向量实现行人重识别。与现有技术相比,本发明提取行人图像不同语义层次的特征,提高了特征的区分性,并利用半分离式的监督学习方式提高了训练过程的稳定性,提升了网络准确率性能,具有重识别准确率高等优点。
-
公开(公告)号:CN109508661B
公开(公告)日:2021-07-09
申请号:CN201811288509.5
申请日:2018-10-31
Applicant: 上海交通大学
IPC: G06K9/00
Abstract: 本发明涉及一种基于物体检测和姿态估计的举手者检测方法,该方法包括以下步骤:1)获得待测教学视频;2)均匀提取所述待测教学视频中的图片帧,输入训练好的举手动作检测模型中,获取含有举手动作的图片帧和记录举手框位置的第一文本文件;3)对所述含有举手动作的图片帧进行姿态估计,获得每张图片帧中所有人的人体关键点,形成记录关键点位置的第二文本文件;4)根据所述第一文本文件和第二文本文件,利用启发式匹配策略,检测获得举手者。与现有技术相比,本发明通过改进姿态估计算法解决低分辨率和动作扭曲的问题,采用启发式匹配策略准确获得真实举手者,具有检测准确度和检全率高等优点。
-
公开(公告)号:CN112418064A
公开(公告)日:2021-02-26
申请号:CN202011304047.9
申请日:2020-11-19
Applicant: 上海交通大学
Abstract: 本发明涉及一种用于图书馆阅览室内的实时人数自动检测方法,包括以下步骤:步骤1)摄像头采集图书馆各区域实时图像信息,并将其发送给后台主机;步骤2)后台主机对每张图像进行分析,识别人体关键点并得到人体矩形检测框;步骤3)舍弃图像选定框外的人体矩形检测框,得到每张图像内的有效人数;步骤4)根据摄像头分组关系对人数加和,得到各浏览室内人数及空位置数;步骤5)将人数信息实时发布。与现有技术相比,本发明具有降低了图书馆人数检测的成本和降低了人数统计系统的漏检率等优点。
-
公开(公告)号:CN110826459A
公开(公告)日:2020-02-21
申请号:CN201911051259.8
申请日:2019-10-31
Applicant: 上海交通大学
Abstract: 本发明涉及一种基于姿态估计的可迁移校园暴力行为视频识别方法,该方法包括以下步骤:第一步:数据收集与预处理;第二步:基于姿态估计的可迁移暴力行为判别网络设计;第三步:基于姿态估计的可迁移暴力行为判别网络训练;第四步:用训练好的模型对输入的视频进行校园暴力行为有效识别。与现有技术相比,本发明具有识别精度高等优点。
-
-
公开(公告)号:CN109508663A
公开(公告)日:2019-03-22
申请号:CN201811299473.0
申请日:2018-10-31
Applicant: 上海交通大学
CPC classification number: G06K9/00369 , G06K9/627 , G06K9/6276
Abstract: 本发明涉及一种基于多层次监督网络的行人重识别方法,该方法通过一多层次监督网络对行人图像提取不同语义层次的特征,进而实现行人重识别;所述多层次监督网络包括一个多层深度卷积神经网络作为主干网络和多个分类模块作为特征提取子网络;主干网络将行人图像转换为不同语义层次的特征图,各分类模块通过监督学习将主干网络提取的各层特征图分别转化为具有区分性的特征向量,所有层次上的特征向量拼接形为最终特征向量,基于该最终特征向量实现行人重识别。与现有技术相比,本发明提取行人图像不同语义层次的特征,提高了特征的区分性,并利用半分离式的监督学习方式提高了训练过程的稳定性,提升了网络准确率性能,具有重识别准确率高等优点。
-
公开(公告)号:CN109508661A
公开(公告)日:2019-03-22
申请号:CN201811288509.5
申请日:2018-10-31
Applicant: 上海交通大学
IPC: G06K9/00
CPC classification number: G06K9/00369 , G06K9/00382
Abstract: 本发明涉及一种基于物体检测和姿态估计的举手者检测方法,该方法包括以下步骤:1)获得待测教学视频;2)均匀提取所述待测教学视频中的图片帧,输入训练好的举手动作检测模型中,获取含有举手动作的图片帧和记录举手框位置的第一文本文件;3)对所述含有举手动作的图片帧进行姿态估计,获得每张图片帧中所有人的人体关键点,形成记录关键点位置的第二文本文件;4)根据所述第一文本文件和第二文本文件,利用启发式匹配策略,检测获得举手者。与现有技术相比,本发明通过改进姿态估计算法解决低分辨率和动作扭曲的问题,采用启发式匹配策略准确获得真实举手者,具有检测准确度和检全率高等优点。
-
-
-
-
-
-
-
-
-