-
公开(公告)号:CN112164069A
公开(公告)日:2021-01-01
申请号:CN202010740906.2
申请日:2020-07-29
Applicant: 南通大学 , 杭州博拉哲科技有限公司
Abstract: 本发明公开了一种基于深度学习的CT腹部血管分割方法,步骤1:对原始CT小肠造影图像进行处理;步骤2:将步骤1得到的预处理后的图像作为输入,搭建AA R2U‑Net模型;步骤3:对步骤2得到的AA R2U‑Net进行训练;步骤4:加载步骤3得到的训练后的AA R2U‑Net对CT小肠造影进行血管分割。本发明设计了一种基于深度学习的血管分割方法,将注意增强模块与R2U‑Net相结合得到AA R2U‑Net模型,快速而精确地将CT小肠造影中的肠壁血管区域分割出来,帮助影像科医生快速定位CT小肠造影中的血管区域。
-
公开(公告)号:CN111401260B
公开(公告)日:2020-09-29
申请号:CN202010191868.X
申请日:2020-03-18
Applicant: 南通大学
Abstract: 本发明公开了一种基于Quick‑OpenPose模型的仰卧起坐测试计数方法及系统,通过在测试区侧面放置摄像机,以一定帧率持续拍摄测试者的测试图像。使用改进的Quick‑OpenPose模型识别人体主要部位并对其编号、连线,挑选出脊柱连接线条以及头部和膝盖连接线条。将脊柱连结线条与地面间的角度作为首选判断条件,当脊柱连结线条识别不到时,选择头部到膝盖的连接线条长度作为备用判断条件。分别设定卧姿起身、坐姿、卧姿躺下三个判断条件。当3个判断条件都满足时,系统计数一次。依靠视觉识别减少干扰因素,简化设备,同时本发明还提供对应的计数系统。本发明实现自助式的仰卧起坐测试和计数,测试效率高,可以附加在现有仰卧起坐垫上,实现实时的计数。
-
公开(公告)号:CN111523445B
公开(公告)日:2023-05-26
申请号:CN202010317535.7
申请日:2020-04-21
Applicant: 南通大学
IPC: G06V40/16 , G06V40/20 , G06V40/10 , G06V10/774 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/082 , G06Q10/0639 , G06Q50/20
Abstract: 本发明公开了一种基于改进的Openpose模型和面部微表情的考试行为检测方法,在课桌前布置摄像机,实时检测学生考试行为。通过人工智能模型识别面部信息、上半身骨骼信息,以关键点能否被识别到以及关键点之间的距离为主要判断条件,以微表情的变化为辅助判断条件。若某学生持续一段时间未满足条件,则判定其存在考试行为异常。此外,通过一节课的视频流,找出学生行为异常可能发生阶段,并对该阶段进行分析,实现教学的创新和改革。靠机器视觉识别减少干扰因素,简化设备,本发明通过残差网络,权值修剪等方法进一步优化网络模型。相较于传统方式,本发明实现自助式的考试行为检测和反馈,测试效率高,准确性可达95%,可以应用于一般考试检测。
-
公开(公告)号:CN111882543B
公开(公告)日:2023-12-26
申请号:CN202010741400.3
申请日:2020-07-29
Applicant: 南通大学 , 杭州博拉哲科技有限公司
IPC: G06T7/00 , G06T7/11 , G06T7/143 , G06N3/0464 , G06N3/0455 , G06N3/02
Abstract: 本发明公开了一种基于AA R2Unet和HMM的香烟滤棒计数方法,本发明利用U‑net网络模型进行训练,准确识别滤棒目标和背景。因此,根据识别出的二值化图像,提出了滤棒分布特征的结构单元填充和圆切线搜索策略,实验结果表明,该算法在检测精度和检测范围上都取得了很大的进步。
-
公开(公告)号:CN111862070A
公开(公告)日:2020-10-30
申请号:CN202010741385.2
申请日:2020-07-29
Applicant: 南通大学 , 杭州博拉哲科技有限公司
Abstract: 本发明公开了一种基于CT图像测量皮下脂肪厚度的方法,包括以下步骤:步骤1:对CT图像进行预处理,得到训练集;步骤2:对训练集进行图像块剪裁操作,得到数据集;步骤3:通过深度学习进行外围曲线分割;步骤4:边缘连接;步骤5:对CT图像外围曲线和内曲线进行骨骼化操作;步骤6:从12个方向获取CT图像外围曲线和内曲线之间的像素点;步骤7:对外围曲线和内曲线进行换算,得到皮下脂肪厚度。本发明设计了一种测量皮下脂肪厚度的方法,基于先分割后计算的思路,较为准确的皮下脂肪厚度的计算。
-
公开(公告)号:CN111523445A
公开(公告)日:2020-08-11
申请号:CN202010317535.7
申请日:2020-04-21
Applicant: 南通大学
Abstract: 本发明公开了一种基于改进的Openpose模型和面部微表情的考试行为检测方法,在课桌前布置摄像机,实时检测学生考试行为。通过人工智能模型识别面部信息、上半身骨骼信息,以关键点能否被识别到以及关键点之间的距离为主要判断条件,以微表情的变化为辅助判断条件。若某学生持续一段时间未满足条件,则判定其存在考试行为异常。此外,通过一节课的视频流,找出学生行为异常可能发生阶段,并对该阶段进行分析,实现教学的创新和改革。靠机器视觉识别减少干扰因素,简化设备,本发明通过残差网络,权值修剪等方法进一步优化网络模型。相较于传统方式,本发明实现自助式的考试行为检测和反馈,测试效率高,准确性可达95%,可以应用于一般考试检测。
-
公开(公告)号:CN111523444A
公开(公告)日:2020-08-11
申请号:CN202010317534.2
申请日:2020-04-21
Applicant: 南通大学
Abstract: 本发明公开了基于改进的Openpose模型和面部微表情的课堂行为检测的方法,在课桌前的布置摄像机,实时检测学生课堂行为。通过人工智能模型识别面部信息、上半身骨骼信息,以关键点能否被识别到以及关键点之间的距离为主要判断条件,以微表情的变化为辅助判断条件。若某学生持续一段时间未满足条件,则判定其存在考试行为异常。此外,通过一节课的视频流,找出学生行为异常可能发生阶段,并对该阶段进行分析,实现教学的创新和改革。靠机器视觉识别减少干扰因素,简化设备,同时本发明还提供对应的数据分析处理系统。本发明通过残差网络,权值修剪等方法进一步优化网络模型。本发明实现自助式的课堂行为检测和反馈,测试效率高,准确性可达95%。
-
公开(公告)号:CN111523444B
公开(公告)日:2023-05-02
申请号:CN202010317534.2
申请日:2020-04-21
Applicant: 南通大学
IPC: G06V40/16 , G06V40/20 , G06Q10/0639 , G06V10/82 , G06Q50/20 , G06N3/0464
Abstract: 本发明公开了基于改进的Openpose模型和面部微表情的课堂行为检测的方法,在课桌前的布置摄像机,实时检测学生课堂行为。通过人工智能模型识别面部信息、上半身骨骼信息,以关键点能否被识别到以及关键点之间的距离为主要判断条件,以微表情的变化为辅助判断条件。若某学生持续一段时间未满足条件,则判定其存在考试行为异常。此外,通过一节课的视频流,找出学生行为异常可能发生阶段,并对该阶段进行分析,实现教学的创新和改革。靠机器视觉识别减少干扰因素,简化设备,同时本发明还提供对应的数据分析处理系统。本发明通过残差网络,权值修剪等方法进一步优化网络模型。本发明实现自助式的课堂行为检测和反馈,测试效率高,准确性可达95%。
-
公开(公告)号:CN111862072A
公开(公告)日:2020-10-30
申请号:CN202010741397.5
申请日:2020-07-29
Applicant: 南通大学 , 杭州博拉哲科技有限公司
Abstract: 本发明公开了一种基于CT图像测量腹围的方法,其具体操作方法包括以下步骤:A、图像预处理;B、图像块剪裁操作;C、通过深度学习进行外围曲线分割;D、骨骼化处理;E、边缘连接;F、累加像素点换算腹围,本发明旨在提出一种能够基于CT图像直接获得腹围的方法,该方法首先对CT图像进行预处理,通过深度学习进行外围分割,再对分割结果进行骨骼化处理,最后计算外围像素点个数乘以每个像素点对应的长度便可获得腹围,得出较为准确的实现腹围测算。
-
公开(公告)号:CN111368791B
公开(公告)日:2020-09-29
申请号:CN202010191346.X
申请日:2020-03-18
Applicant: 南通大学
Abstract: 本发明公开了一种基于Quick‑OpenPose模型的引体向上测试计数方法及系统,包括:进入学号认证模块;测试器上的引体向上摄像头持续拍摄测试者的测试图像,获取图像,使用人体姿态识别模块识别姿态,当初次发现某帧图像中手腕检测点与单杠距离在阈值范围内时,将该帧设置为起始帧;当识别到运动姿态达到阈值要求时,进行累计计数;人体姿态如果识别出现严重错误,则防错模块中断检测过程,返回等待重新开始并语音播报;若识别到运动姿态未达标,则同样进行语音播报但不中断识别,本次动作不计数;检测到手腕离开单杠,测试结束;计数模块计算被测人的最终有效引体向上测试计数成绩并进行语音播报。本发明检测速度快,效率高,提高了参数共享率,降低了模型冗余度。
-
-
-
-
-
-
-
-
-