基于元学习的微表情识别方法

    公开(公告)号:CN113591660B

    公开(公告)日:2025-03-11

    申请号:CN202110840137.8

    申请日:2021-07-24

    Inventor: 宫文娟 张悦

    Abstract: 本发明公开了一种基于元学习的微表情识别方法,包括数据预处理;微表情特征提取和融合;模型预训练;微表情识别。提出的方法是基于元学习的,适用于小样本学习,将光流和帧差的融合特征分别输入用宏表情预训练和微表情预训练的元学习模型中,对得到的特征向量拼接进行分类,从而大幅度提高了模型识别的泛化性能,提高了微表情的识别效果。

    一种基于TP-STG框架的人体动作识别方法

    公开(公告)号:CN109492581B

    公开(公告)日:2023-07-18

    申请号:CN201811328308.3

    申请日:2018-11-09

    Abstract: 本发明公开了一种基于TP‑STG框架的人体动作识别方法,该方法包含:以视频信息作为输入,将先验知识加入SVM分类器,提出后验判别准则以去除非人员目标;通过目标定位与检测算法分割出人员目标,并以目标框和坐标信息的方式输出,为人体关键点检测提供输入数据;利用改进的姿态识别算法进行身体部位定位和关联程度分析以提取到全部人体关键点信息,形成关键点序列;通过动作识别算法在关键点序列上构建时空图,对其应用于多层时空图卷积操作,并由Softmax分类器进行动作分类,实现复杂场景下的人体动作识别。本发明的方法首次结合海洋平台的实际场景,提出的TP‑STG框架首次尝试使用目标检测、姿态识别和时空图卷积的方法来识别海上钻井平台上的工人活动。

    基于元学习的微表情识别方法

    公开(公告)号:CN113591660A

    公开(公告)日:2021-11-02

    申请号:CN202110840137.8

    申请日:2021-07-24

    Inventor: 宫文娟 张悦

    Abstract: 本发明公开了一种基于元学习的微表情识别方法,包括数据预处理;微表情特征提取和融合;模型预训练;微表情识别。提出的方法是基于元学习的,适用于小样本学习,将光流和帧差的融合特征分别输入用宏表情预训练和微表情预训练的元学习模型中,对得到的特征向量拼接进行分类,从而大幅度提高了模型识别的泛化性能,提高了微表情的识别效果。

    一种基于3D人体关键点的时序行为检测方法

    公开(公告)号:CN109919122A

    公开(公告)日:2019-06-21

    申请号:CN201910201167.7

    申请日:2019-03-18

    Abstract: 本发明公开了一种基于3D人体关键点的时序行为检测方法,该方法包含:将视频数据作为输入,通过数据预处理将视频数据转换为连续的帧图像;利用多层CNN网络进行特征提取,检测出图像中人员目标的边界框;然后经过身体部位定位和关联程度分析,得到2D人体关键点坐标,通过构造关键点回归网络实现了2D人体关键点到3D关键点的映射;将3D联合坐标输入时空图卷积网络对整个视频序列进行帧级动作识别与分类,通过对同一标签的相邻帧进行分组,获得不同粒度的动作提议段;通过细粒度完整性过滤以精确修正动作的时间边界,实现了复杂场景下的时序行为检测。本发明的方法能够从3D数据中解析出更多有价值的信息,显著提高了时序行为检测与定位的精度。

    一种基于TP-STG框架的人体动作识别方法

    公开(公告)号:CN109492581A

    公开(公告)日:2019-03-19

    申请号:CN201811328308.3

    申请日:2018-11-09

    Abstract: 本发明公开了一种基于TP-STG框架的人体动作识别方法,该方法包含:以视频信息作为输入,将先验知识加入SVM分类器,提出后验判别准则以去除非人员目标;通过目标定位与检测算法分割出人员目标,并以目标框和坐标信息的方式输出,为人体关键点检测提供输入数据;利用改进的姿态识别算法进行身体部位定位和关联程度分析以提取到全部人体关键点信息,形成关键点序列;通过动作识别算法在关键点序列上构建时空图,对其应用于多层时空图卷积操作,并由Softmax分类器进行动作分类,实现复杂场景下的人体动作识别。本发明的方法首次结合海洋平台的实际场景,提出的TP-STG框架首次尝试使用目标检测、姿态识别和时空图卷积的方法来识别海上钻井平台上的工人活动。

    一种基于改进卷积神经网络的多人行为识别方法

    公开(公告)号:CN105590099B

    公开(公告)日:2019-02-01

    申请号:CN201510970326.1

    申请日:2015-12-22

    Abstract: 本发明提供一种基于改进卷积神经网络的多人行为识别方法。首先用densesift算法对图片集进行特征提取,得到4*4*8个描述子;然后从sift特征提取的4*4*8个描述子中取其中一个方向的描述子(即每个块将取到4*4*1个描述子),并将这些描述子按序组合成为一个二维图像,这样同一张图像就可以得到八张特征图像。最后将每张图片的八张特征图像作为八个通道同时输入卷积神经网络中进行训练。本发明充分考虑了多人情况下,人物角色的多样化,场景的复杂化,及其数据特征多维化的因素,可以较为精确的进行多人行为的识别。

    基于深度学习的分布嵌入式实时视频流处理系统及方法

    公开(公告)号:CN107067365A

    公开(公告)日:2017-08-18

    申请号:CN201710278169.7

    申请日:2017-04-25

    CPC classification number: G06T1/20 G06N3/08 H04L67/1097

    Abstract: 本发明涉及一种基于深度学习的分布嵌入式实时视频流处理系统及方法,视频数据采集层通过ARM板采集视频数据并预处理;视频处理层根据指定的视频处理任务在嵌入式GPU处理器集群上根据深度学习算法进行视频处理;GPU资源调度层实时监控嵌入式GPU处理器中的GPU使用情况并根据调度策略进行调度,存储层将处理结果上传到云存储服务器,服务层将结果可视化反馈给客户端。本发明的一种基于深度学习的分布嵌入式实时视频流处理框架,将视频处理、深度学习相结合,把视频处理利用分布嵌入式技术并行化,以达到实时视频处理的效果;把深度学习应用到视频处理中,提高视频处理的准确率。

    一种基于卷积神经网络的实时车型匹配方法

    公开(公告)号:CN106919949A

    公开(公告)日:2017-07-04

    申请号:CN201710050763.0

    申请日:2017-01-23

    CPC classification number: G06K9/6269 G06K9/6256 G06K2209/23 G06N3/0454

    Abstract: 本发明公开了一种基于卷积神经网络的实时车型匹配方法,包括构建车型数据库,并设计卷积神经网络;利用车型数据库进行卷积神经网络训练,得到最优卷积神经网络及车型数据库中每种车型的车型特征;构建Storm的拓扑结构,信息流上层为数据源输入组件,信息流中层为布置了最优卷积神经网络的数据处理组件,信息流底层为布置了SVM分类器的数据处理组件;数据源输入组件将采集的实时视频流发给信息流中层数据处理组件,通过卷积神经网络提取车型特征;信息流底层数据处理组件利用SVM分类器对信息流中层发送的车型特征进行匹配,并返回匹配结果。本发明将卷积神经网络的特征提取技术与SVM分类方法和Storm架构相结合,提高车型匹配的准确率和效率。

    一种基于深度学习的高精度交通标志检测方法及系统

    公开(公告)号:CN106909886A

    公开(公告)日:2017-06-30

    申请号:CN201710041906.1

    申请日:2017-01-20

    CPC classification number: G06K9/00818 G06K9/4609

    Abstract: 本发明公开了一种基于深度学习的高精度交通标志检测方法及系统。其中,该方法将深度学习技术与高精度交通标志检测技术相结合,通过对SSD网络和卷积神经网络进行训练,利用训练好的SSD网络提取来自视频流中按比例进行重叠切割后的交通标志特征,根据SSD网络提取到的交通标志特征,利用训练好的卷积神经网络提取交通标志特征的特征,将提取到的交通标志特征的特征与交通标志图像检测数据库的正负两类交通标志的特征进行匹配,保留正类交通标志特征,得到高精度交通标志匹配筛选结果,有效地提高了高精度交通标志检测的准确率。

Patent Agency Ranking