一种面向嵌入式实时视觉目标检测的轻型网络构建方法

    公开(公告)号:CN112990325B

    公开(公告)日:2022-09-06

    申请号:CN202110312020.2

    申请日:2021-03-24

    Applicant: 南通大学

    Abstract: 本发明公开了一种面向嵌入式实时视觉目标检测的轻型网络构建方法,包括如下步骤:步骤1)构建基于通道注意力机制多尺度特征融合的三分支输出骨干网络模块Backbone‑Tiny;步骤2)构建轻型金字塔特征融合网络模块PAN‑Tiny;步骤3)构建轻型检测头网络模块Head‑Tiny;步骤4)按照骨干网络模块Backbone‑Tiny、金字塔特征融合网络模块PAN‑Tiny、检测头网络模块Head‑Tiny的顺序,将步骤1)、步骤2)、步骤3)所描述的三个局部子网络模块依次串联成为目标检测网络整体。本发明的方法能够大幅度提升骨干网络模块特征提取有效性的同时,显著降低特征金字塔融合网络模块的计算量。

    基于Quick-OpenPose模型的仰卧起坐测试计数方法及系统

    公开(公告)号:CN111401260B

    公开(公告)日:2020-09-29

    申请号:CN202010191868.X

    申请日:2020-03-18

    Applicant: 南通大学

    Abstract: 本发明公开了一种基于Quick‑OpenPose模型的仰卧起坐测试计数方法及系统,通过在测试区侧面放置摄像机,以一定帧率持续拍摄测试者的测试图像。使用改进的Quick‑OpenPose模型识别人体主要部位并对其编号、连线,挑选出脊柱连接线条以及头部和膝盖连接线条。将脊柱连结线条与地面间的角度作为首选判断条件,当脊柱连结线条识别不到时,选择头部到膝盖的连接线条长度作为备用判断条件。分别设定卧姿起身、坐姿、卧姿躺下三个判断条件。当3个判断条件都满足时,系统计数一次。依靠视觉识别减少干扰因素,简化设备,同时本发明还提供对应的计数系统。本发明实现自助式的仰卧起坐测试和计数,测试效率高,可以附加在现有仰卧起坐垫上,实现实时的计数。

    一种基于改进的Openpose模型和面部微表情的考试行为检测方法

    公开(公告)号:CN111523445B

    公开(公告)日:2023-05-26

    申请号:CN202010317535.7

    申请日:2020-04-21

    Applicant: 南通大学

    Abstract: 本发明公开了一种基于改进的Openpose模型和面部微表情的考试行为检测方法,在课桌前布置摄像机,实时检测学生考试行为。通过人工智能模型识别面部信息、上半身骨骼信息,以关键点能否被识别到以及关键点之间的距离为主要判断条件,以微表情的变化为辅助判断条件。若某学生持续一段时间未满足条件,则判定其存在考试行为异常。此外,通过一节课的视频流,找出学生行为异常可能发生阶段,并对该阶段进行分析,实现教学的创新和改革。靠机器视觉识别减少干扰因素,简化设备,本发明通过残差网络,权值修剪等方法进一步优化网络模型。相较于传统方式,本发明实现自助式的考试行为检测和反馈,测试效率高,准确性可达95%,可以应用于一般考试检测。

    一种面向嵌入式实时视觉目标检测的轻型网络构建方法

    公开(公告)号:CN112990325A

    公开(公告)日:2021-06-18

    申请号:CN202110312020.2

    申请日:2021-03-24

    Applicant: 南通大学

    Abstract: 本发明公开了一种面向嵌入式实时视觉目标检测的轻型网络构建方法,包括如下步骤:步骤1)构建基于通道注意力机制多尺度特征融合的三分支输出骨干网络模块Backbone‑Tiny;步骤2)构建轻型金字塔特征融合网络模块PAN‑Tiny;步骤3)构建轻型检测头网络模块Head‑Tiny;步骤4)按照骨干网络模块Backbone‑Tiny、金字塔特征融合网络模块PAN‑Tiny、检测头网络模块Head‑Tiny的顺序,将步骤1)、步骤2)、步骤3)所描述的三个局部子网络模块依次串联成为目标检测网络整体。本发明的方法能够大幅度提升骨干网络模块特征提取有效性的同时,显著降低特征金字塔融合网络模块的计算量。

    基于改进的Openpose模型和面部微表情的课堂行为检测的方法

    公开(公告)号:CN111523444B

    公开(公告)日:2023-05-02

    申请号:CN202010317534.2

    申请日:2020-04-21

    Applicant: 南通大学

    Abstract: 本发明公开了基于改进的Openpose模型和面部微表情的课堂行为检测的方法,在课桌前的布置摄像机,实时检测学生课堂行为。通过人工智能模型识别面部信息、上半身骨骼信息,以关键点能否被识别到以及关键点之间的距离为主要判断条件,以微表情的变化为辅助判断条件。若某学生持续一段时间未满足条件,则判定其存在考试行为异常。此外,通过一节课的视频流,找出学生行为异常可能发生阶段,并对该阶段进行分析,实现教学的创新和改革。靠机器视觉识别减少干扰因素,简化设备,同时本发明还提供对应的数据分析处理系统。本发明通过残差网络,权值修剪等方法进一步优化网络模型。本发明实现自助式的课堂行为检测和反馈,测试效率高,准确性可达95%。

Patent Agency Ranking