基于增进式图卷积神经网络的人体动作识别方法

    公开(公告)号:CN111310659B

    公开(公告)日:2022-08-09

    申请号:CN202010094821.1

    申请日:2020-02-14

    Applicant: 福州大学

    Inventor: 柯逍 柯力

    Abstract: 本发明公开了一种基于增进式图卷积神经网络的人体动作识别方法,首先提取与类别无关的时空对象和计算不同对象提取的特征,并对动作信息检测单元进行定义和表示;其次计算每帧表示的信息熵,选取熵小的帧作为整个视频的关键帧动作;然后将选取的关键动作帧图像输入到人体姿态估计模型;接着通过微小的变换、修剪和对齐的方法自动选择感兴趣的区域方面;最后在检测器检测人体动作的时候产生的冗余检测信息采用非极大值抑制算法来消除,通过适当的数据增强,以便让对称空间变换网络加上单人姿态估计网络适应不完美的人体区域定位结果。本发明可以有效的提高人体动作识别的准确率。

    基于深度姿态预估和多特征融合的行人衣着属性识别方法

    公开(公告)号:CN110033007B

    公开(公告)日:2022-08-09

    申请号:CN201910321093.0

    申请日:2019-04-19

    Applicant: 福州大学

    Inventor: 柯逍 李振达

    Abstract: 本发明涉及一种基于深度姿态预估和多特征融合的行人衣着属性识别方法。该方法首先通过外观特征匹配,选取部分检索结果用于后续的属性识别;随后通过基于SSD的深度人体姿态估计方法,能有效定位出图像中属于行人的前景区域,并较好地排除背景因素干扰;最后融合多种方式的解析结果,并结合迭代平滑过程,采取最大后验概率分配的方式,加强属性标签与像素之间的相关性,得到最终的属性解析识别结果。本发明解决了单一解析方式下标签识别不准、像素解析区域偏差等问题。该方法简单灵活,具有较强的实际应用性。

    基于YOLOv3的监控场景下的安防敏感物品检测方法

    公开(公告)号:CN109829429B

    公开(公告)日:2022-08-09

    申请号:CN201910097619.1

    申请日:2019-01-31

    Applicant: 福州大学

    Inventor: 柯逍 黄新恩

    Abstract: 本发明涉及一种基于YOLOv3的监控场景下的安防敏感物品检测方法。包括以下步骤:步骤S1:分别采集刀具、枪械、行李箱、手提包、火焰的图像数据,构成安防敏感物品图像集;步骤S2:对下载好的图像进行人工标注,生成xml文件,以符合YOLOv3训练的要求;步骤S3:对处理好的数据进行若干数据增强;步骤S4:训练YOLOv3神经网络模型;步骤S5:将监控视频信息进行预处理,对监控视频中的物品进行检测。本发明方法着眼于计算机视觉对于安防领域的辅助作用,具有创新意义;且本发明方法的准确率高,时效性好,对于监控场景下的敏感物品检测具有一定效果。

    一种匈牙利算法下基于空间约束的成本矩阵优化方法

    公开(公告)号:CN112528730B

    公开(公告)日:2022-06-10

    申请号:CN202011128387.0

    申请日:2020-10-20

    Applicant: 福州大学

    Abstract: 本发明涉及一种匈牙利算法下基于空间约束的成本矩阵优化方法,首先获取保存好的所有被跟踪目标的外观特征向量集合,然后获取该帧中所有行人检测的结果,并将他们结合构造初始的成本矩阵;接着根据之前被跟踪的目标的信息利用卡尔曼滤波来估计该目标的当前位置,根据估计位置和检测结果的相对关系来修改成本矩阵的权重,用于后续的指派任务;最后利用匈牙利算法获得成本矩阵的最优指派,据此将检测结果进行分配,并且更新和保存被跟踪目标的外貌特征。本发明能够根据视频场景来有效改善匈牙利算法的匹配效果,去除一些不合理的匹配。

    一种基于空间注意力特征聚合的视觉跟踪方法

    公开(公告)号:CN112258557B

    公开(公告)日:2022-06-10

    申请号:CN202011149132.2

    申请日:2020-10-23

    Applicant: 福州大学

    Inventor: 柯逍 李悦洲 叶宇

    Abstract: 本发明涉及一种基于空间注意力特征聚合的视觉跟踪方法,包括步骤:S1:获取视频或图像序列的首帧标注信息,将首帧图像输入孪生网络跟踪架构的模板分支,对区域目标提取浅层特征、中间层特征、深层特征;其中孪生网络跟踪架构包括模板分支与搜索分支;S2:构造空间注意力掩模,计算掩模运算后的特征;S3:对浅层特征计算精确性质量值,对中间层特征计算鲁棒性质量值;基于区域特征聚合方法选取特征通道,连接特征张量作为聚合结果;S4:根据先验标签使用回归方法调整深层部分网络参数,重计算深层特征的输出并聚合,利用得到的所有聚合特征作为模板在孪生网络跟踪架构的搜索分支经过卷积运算得到输出结果。本发明能够有效的进行视觉跟踪。

    基于字符嵌入的汉字编码方法

    公开(公告)号:CN112632911B

    公开(公告)日:2022-05-13

    申请号:CN202110001263.4

    申请日:2021-01-04

    Applicant: 福州大学

    Inventor: 柯逍 刘童安

    Abstract: 本发明涉及一种基于字符嵌入的汉字编码方法,包括以下步骤:步骤S1:构建汉字字符集,将每个字符分解为若干个子结构,构建子结构集合,定义每个子结构对字符的贡献度,并根据子结构集合,构建子结构对每个字符贡献度矩阵;步骤S2:根据得到的子结构集合和子结构对每个字符贡献度矩阵,构建子结构嵌入矩阵并训练,提取得到字符嵌入矩阵;步骤S3:输入字符,通过字符嵌入矩阵获取字符嵌入。本发明能有效降低汉字编码的维度,使得具有相似构成的汉字编码具有正相关性,有效提高字符识别效率。

    基于深度表观特征和自适应聚合网络的多人脸跟踪方法

    公开(公告)号:CN109829436B

    公开(公告)日:2022-05-13

    申请号:CN201910106309.1

    申请日:2019-02-02

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于深度表观特征和自适应聚合网络的多人脸跟踪方法,首先采用人脸识别数据集训练自适应聚合网络;接着使用基于卷积神经网络的人脸检测方法获取人脸的位置,初始化待跟踪的人脸目标,提取人脸特征;然后采用卡尔曼滤波器预测每个人脸跟踪目标在下一帧的位置,并在下一帧中再次定位人脸所在位置,对检测出的人脸提取特征;最后使用自适应聚合网络,对每个跟踪的人脸目标跟踪轨迹中的人脸特征集合进行聚合,动态地生成一个融合多帧信息的人脸深度表观特征,结合预测的位置及融合后的特征,与当前帧中通过检测得到的人脸位置及其特征,进行相似度计算与匹配,更新跟踪状态。本发明能够提升人脸跟踪的性能。

    复杂场景下基于内特征和文本域布局的驾驶证检测识别方法

    公开(公告)号:CN108427946B

    公开(公告)日:2021-11-26

    申请号:CN201810218038.4

    申请日:2018-03-16

    Applicant: 福州大学

    Abstract: 本发明提供了一种复杂场景下基于内特征和文本域布局的驾驶证检测识别方法,首先用归一化和SSR增强等技术预处理图像,用形态学操作和线段修补对证件中的车型框边框进行修补,通过轮廓检测与过滤得到车型框轮廓,求拟合直线的交点得到车型框顶点,结合标准驾驶证布局得到驾驶证区域图像。然后分析积分投影信息对车型文本区域位置进行精细定位,从它开始,每次找临近的未定位区域进行粗定位和精细定位得到文本区域图像,并在地址栏以上区域进行倾斜校正。最后融合多种方法对文本区域二值化,用专训的文字识别引擎识别文字。该方法快速鲁棒,能准确迅速地识别各种复杂场景下的拍摄出来的图像,具有较好的实用性和较高的应用价值。

    一种基于数据均衡策略和密集注意网络的细粒度车型检测与识别方法

    公开(公告)号:CN108830254B

    公开(公告)日:2021-10-29

    申请号:CN201810681853.4

    申请日:2018-06-27

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于数据均衡策略和密集注意网络的细粒度车型检测与识别方法,首先获取车型数据集,并对获取的车型数据集进行标注,为训练车型检测与识别模型做好准备;接着采用数据均衡策略对收集到的车型数据集进行数据均衡处理;然后用经过数据均衡处理后的车型数据集训练密集注意网络;最后将一幅待检测的图像输入训练好的密集注意网络中,利用训练好的密集注意网络对待检测的图像进行检测与识别。

    基于计算机视觉的屏幕浏览场景分类方法

    公开(公告)号:CN113515633A

    公开(公告)日:2021-10-19

    申请号:CN202110747198.X

    申请日:2021-07-02

    Applicant: 福州大学

    Inventor: 柯逍 许培荣

    Abstract: 本发明提出一种基于计算机视觉的屏幕浏览场景分类方法,包括以下步骤:步骤S1:通过自然场景训练集训练文本检测网络模型;步骤S2:采用训练好的文本检测器获得文本区域,并通过文本训练集训练识别网络;步骤S3:采用训练好的文本识别器识别文本区域,并通过新闻标题训练集训练文档分类模型。步骤S4:采用训练好文本分类器分类屏幕浏览场景类别,并采用检测和图像处理信息特征做二分类。该方法能够有效地对屏幕浏览画面进行组成上和内容上的分类。

Patent Agency Ranking