一种面向家居场景的学生坐姿检测方法

    公开(公告)号:CN109978907A

    公开(公告)日:2019-07-05

    申请号:CN201910220634.0

    申请日:2019-03-22

    Inventor: 张晖 史雪勇 何辉

    Abstract: 本发明提出了一种面向家居场景的学生坐姿检测方法,实时采集视频流中的连续帧图像;首先对图像进行预处理,降低图像局部的阴影和光照变化所造成的影响,同时可以抑制噪音的干扰;然后通过背景减除法对捕获的当前帧图像进行处理,获得人形所在区域,降低背景对检测准确度的影响;之后对预处理后的当前帧进行人形分割,把大量人形分割后的待检图像和标签输入到改进后的AlexNet神经网络模型进行训练,获取学生坐姿检测模型。该发明可以广泛应用于家居场景下的学生坐姿检测,包括坐姿是否正确和坐姿倾斜程度等,给用户带来健康舒适的身心享受,有非常广阔的应用前景。

    一种面向跌倒分析的人体姿态时空特征提取方法

    公开(公告)号:CN113204989B

    公开(公告)日:2022-07-29

    申请号:CN202110295154.8

    申请日:2021-03-19

    Abstract: 本发明提出了一种面向跌倒分析的人体姿态时空特征提取方法,该方法首先采用人体姿态估计算法检测得到目标姿态关键点数据;然后提出了基于行为分析的空间特征设计方法、基于行为分析的时序特征设计方法以及基于自适应FSW的人体姿态时空特征融合方法,设计提取出人体跌倒特征,并融合成跌倒特征向量;最后将特征向量输入到分类器,以此判断人体是否发生跌倒行为。该方法可以提取出有意义的深层次的人体跌倒特征,大大提高了跌倒识别的准确率,可以广泛的应用到家居场景中。

    一种面向跌倒分析的人体姿态时空特征提取方法

    公开(公告)号:CN113204989A

    公开(公告)日:2021-08-03

    申请号:CN202110295154.8

    申请日:2021-03-19

    Abstract: 本发明提出了一种面向跌倒分析的人体姿态时空特征提取方法,该方法首先采用人体姿态估计算法检测得到目标姿态关键点数据;然后提出了基于行为分析的空间特征设计方法、基于行为分析的时序特征设计方法以及基于自适应FSW的人体姿态时空特征融合方法,设计提取出人体跌倒特征,并融合成跌倒特征向量;最后将特征向量输入到分类器,以此判断人体是否发生跌倒行为。该方法可以提取出有意义的深层次的人体跌倒特征,大大提高了跌倒识别的准确率,可以广泛的应用到家居场景中。

    一种面向跌倒分析的人体姿态点有效提取方法

    公开(公告)号:CN112949569B

    公开(公告)日:2022-07-29

    申请号:CN202110322202.8

    申请日:2021-03-25

    Abstract: 本发明提出了一种面向跌倒分析的人体姿态点有效提取方法,该方法首先采用人体姿态估计算法检测得到目标姿态关键点;然后提出了基于行为分析的分层筛选方法,分析不同人体行为下关键点的位置变化情况,得到与跌倒行为紧密联系的人体姿态点;之后针对某些帧中可能存在关键点缺失的情况,提出了基于IBLI理论的预测填充方法。该算法可以有效去除跌倒行为的冗余关键点信息,不仅降低了构建跌倒分析模型的复杂度,也提高了跌倒识别的准确度。因此,该发明可以广泛应用于家居场景下的人体跌倒行为检测,有非常广阔的应用场景。

    一种面向跌倒分析的人体姿态点有效提取方法

    公开(公告)号:CN112949569A

    公开(公告)日:2021-06-11

    申请号:CN202110322202.8

    申请日:2021-03-25

    Abstract: 本发明提出了一种面向跌倒分析的人体姿态点有效提取方法,该方法首先采用人体姿态估计算法检测得到目标姿态关键点;然后提出了基于行为分析的分层筛选方法,分析不同人体行为下关键点的位置变化情况,得到与跌倒行为紧密联系的人体姿态点;之后针对某些帧中可能存在关键点缺失的情况,提出了基于IBLI理论的预测填充方法。该算法可以有效去除跌倒行为的冗余关键点信息,不仅降低了构建跌倒分析模型的复杂度,也提高了跌倒识别的准确度。因此,该发明可以广泛应用于家居场景下的人体跌倒行为检测,有非常广阔的应用场景。

    面向个体直播场景的异常行为检测方法

    公开(公告)号:CN109657597A

    公开(公告)日:2019-04-19

    申请号:CN201811523868.4

    申请日:2018-12-13

    Inventor: 张晖 史雪勇

    Abstract: 本发明揭示了一种面向个体直播场景的异常行为检测方法,其特征在于,包括如下步骤:S1、实时获取直播视频信号,捕获视频流中的每帧图像,对每帧图像进行预处理,得到连续三帧图像;S2、对连续三帧图像进行灰度处理,之后采用三帧差法对运动的人形区域进行检测;S3、对当前帧图像进行人形区域分割,得到待检图像;S4、分离待检图像的三个颜色通道的图像,得到输入图像;S5、对输入图像进行卷积神经网络训练,得到异常行为检测模型,并最终得到检测结果。本发明能快速且准确的对视频中人物的异常行为进行检测识别,当检测到直播内容违规时,可以及时向网络平台通知报警,从而实现对直播内容实时、全面的监测。

Patent Agency Ranking