-
公开(公告)号:CN118781654A
公开(公告)日:2024-10-15
申请号:CN202410905416.1
申请日:2024-07-08
Applicant: 安徽大学
IPC: G06V40/20 , G06V20/40 , G06V20/52 , G06V40/10 , G06V10/82 , G06V10/764 , G06V10/40 , G06V10/80 , G06V10/25 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及一种基于人体骨骼关键点检测的ICU患者体动视频识别方法,与现有技术相比解决了难以针对视频检测人体体动的缺陷。本发明包括以下步骤:数据集的获取与预处理;人体骨骼关键点识别模型的构建;人体骨骼关键点识别模型的训练;待识别视频流数据的获取;人体关键点检测及关键点坐标信息入库;人体原子动作识别;基于CPOT评分的体动量化分类。本发明在骨干网络中引入了CA注意力模块,增强了模型对关键点位置信息的识别能力,提高了关键点检测的精度。同时,通过引入深度可分离卷积,有效降低了模型参数量,提高了检测速度,解决了原始算法在自制ICU患者数据集上收敛效果差、关键点丢失的问题。
-
公开(公告)号:CN114973002B
公开(公告)日:2025-05-02
申请号:CN202210705045.3
申请日:2022-06-21
Applicant: 安徽大学
IPC: G06V20/10 , G06V20/17 , G06V10/774 , G06V10/82 , G06V10/40 , G06V10/25 , G06N3/0464 , G06N3/045 , G06N3/08
Abstract: 本发明涉及一种基于改进的YOLOv5的麦穗检测方法,其特征在于:包括:获取麦穗图像并对麦穗图像进行标注,获得麦穗图像数据集,将麦穗图像数据集划分为训练集和测试集;构建YOLOv5网络模型;对YOLOv5网络模型进行改进,得到改进的YOLOv5网络模型;将训练集输入改进的YOLOv5网络模型中,对改进的YOLOv5网络模型进行训练;对改进的YOLOv5网络模型进行评价和测试。本发明使用四尺度特征检测,增加浅层检测尺度,来提高小目标的识别精度;本发明引入CA注意力机制,提升算法的特征提取能力;本发明引入CIOU_Loss作为算法损失函数的Bounding Box Regression Loss,提升检验框检测的准确率。
-
公开(公告)号:CN114360023B
公开(公告)日:2025-04-08
申请号:CN202210016794.5
申请日:2022-01-07
Applicant: 安徽大学
IPC: G06V40/16 , G06V10/44 , G06V10/764
Abstract: 本发明涉及一种基于面部微动作变化检测的麻醉病人复苏预警方法,包括:对病人面部信息视频数据进行采集和预处理,得到测试样本;对测试样本中的病人面部图像进行人脸检测,找出人脸位置;利用级联回归树模型的人脸特征点算法检测人脸上的68个特征关键点,从中获取12个有关眼睛和20个有关嘴巴的特征点,根据分割出来的眼睛嘴巴区域,计算眼睛EAR值和嘴巴MAR值;通过计算苏醒状态评价值F,进行苏醒状态识别,根据苏醒状态进行预警。本发明通过计算分析病人的眼睛和嘴巴状态数据,得到病人的实时健康数据,护理人员依靠获得的这些健康数据来对病人进行护理,大大提高了工作效率,一定程度上缓解了护理人员不足的问题。
-
公开(公告)号:CN119541047A
公开(公告)日:2025-02-28
申请号:CN202411599306.3
申请日:2024-11-11
Applicant: 安徽大学
IPC: G06V40/20 , G06V20/40 , G06V10/44 , G06V10/62 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/045 , G06N3/0464 , G06N3/084 , G16H50/30
Abstract: 本发明涉及一种基于时空动作检测的ICU患者躁动视频识别方法,与现有技术相比解决了难以针对ICU患者进行躁动视频识别的缺陷。本发明包括以下步骤:数据集的获取与预处理;ICU患者躁动识别模型的构建;ICU患者躁动识别模型的训练;待识别视频流数据的获取;ICU患者躁动原子动作识别;基于RASS评分表的躁动量化分类。本发明通过改进Slowfast基础模型,显著提高了模型的检测精度和速度,从时空动作检测的角度,自动准确地检测和理解患者的躁动行为,并根据RASS评分表对患者躁动情况实现自动评分,实现了对ICU患者躁动视频的准确识别。
-
公开(公告)号:CN117087887A
公开(公告)日:2023-11-21
申请号:CN202311141350.5
申请日:2023-09-06
Applicant: 安徽大学
IPC: B64U20/87 , F16M11/12 , F16M11/18 , B64U101/30 , B64U101/40
Abstract: 本发明涉及作物病害治理技术领域,且公开了一种作物病害严重度估测无人机用挂载组件,所述第一固定杆在固定板正下方固定连接有固定底板,所述固定底板顶部固定连接有多功能电机,所述多功能电机穿过中心槽,来到固定板顶部,所述第一固定杆其中一个固定连接有转动电机,所述转动电机开设有输出轴,所述输出轴啮合连接有第一卡齿。该一种作物病害严重度估测无人机用挂载组件,通过各部件之间的配合连接,从而使得在多功能电机和转动电机的工作下,通过各部件一系列的配合,通过第二转动轴带动评估摄像头进行上下以及左右的转动,从而扩大评估摄像头的摄像范围,优化对于作物病害严重度评估的过程及结果。
-
公开(公告)号:CN115082808B
公开(公告)日:2023-05-09
申请号:CN202210683864.2
申请日:2022-06-17
Applicant: 安徽大学
IPC: G06V20/13 , G06V10/26 , G06V10/764 , G06V10/774 , G06V10/82
Abstract: 本发明涉及一种基于高分一号数据与U‑Net模型的大豆种植区提取方法,包括:获取研究区的高分一号数据影像并进行预处理,得到数据集样本;对数据集样本进行数据处理,划分为训练集和测试集;构建U‑Net网络模型;将训练集输入U‑Net网络模型,分析对比基于U‑Net网络模型的损失函数和训练精度变换曲线,对比不同迭代周期训练结果对比图,选择U‑Net网络模型采用的训练周期;U‑Net分类结果与分析。本发明比Deeplabv3+平均交并比高出了8.89%,验证了U‑Net网络模型在大豆种植区提取方面的性能优于SegNet模型和Deeplabv3+模型;U‑Net网络模型作为语义分割网络的一种,在提取大豆种植区这种二分类问题中,展示了良好的效果,比其他模型在遥感提取中表现更为突出。
-
公开(公告)号:CN115393618A
公开(公告)日:2022-11-25
申请号:CN202211018085.7
申请日:2022-08-24
Applicant: 安徽大学
IPC: G06V10/74 , G06V10/774 , G06V10/80 , G06V10/82
Abstract: 本发明涉及一种基于改进YOLOv5的小样本野生动物检测方法,包括:根据所采集的待检测片区真实野生动物数据集对AwA2动物数据集进行筛选,筛选出的图像作为实验数据集;对所采集的待检测片区真实野生动物数据集进行筛选,得到小样本实验数据集;对实验数据集和小样本实验数据集进行标注;在YOLOv5网络模型中加入坐标注意力模块CA,得到YOLOv5‑CA网络模型;采用两阶段训练方法得到YOLOv5‑CA‑TL网络模型,检测待检测片区真实野生动物并进行可行性验证。本发明通过以所采集的待检测片区真实野生动物数据集作为研究对象,使用坐标注意力模块CA有效解决了其他一些算法检测精度低的问题,相对于传统方法,大大降低了人工成本。
-
公开(公告)号:CN115171099A
公开(公告)日:2022-10-11
申请号:CN202210780132.5
申请日:2022-07-04
Applicant: 安徽大学
IPC: G06V20/68 , G06V10/764 , G06V10/774 , G06V10/82 , G06V10/25
Abstract: 本发明涉及一种基于改进Faster R‑CNN网络的小麦锈病图像识别方法,与现有技术相比解决了在背景物的干扰下部分小麦叶锈病与杆锈病难以区分的缺陷。本发明包括以下步骤:小麦图像训练数据组的获取;小麦锈病图像识别模型的构建;小麦锈病图像识别模型的训练;待识别小麦锈病图像的获取;小麦锈病图像识别结果的获得。本发明基于卷积神经网络与目标检测进行目标特征提取来判断小麦病情种类,利用预处理并数据标注好的数据集进行网络模型训练,将训练好的模型集中取表现最优异的那一个进行小麦锈病识别,实现了小麦锈病病情种类的高精度检测。
-
公开(公告)号:CN115082808A
公开(公告)日:2022-09-20
申请号:CN202210683864.2
申请日:2022-06-17
Applicant: 安徽大学
IPC: G06V20/13 , G06V10/26 , G06V10/764 , G06V10/774 , G06V10/82
Abstract: 本发明涉及一种基于高分一号数据与U‑Net模型的大豆种植区提取方法,包括:获取研究区的高分一号数据影像并进行预处理,得到数据集样本;对数据集样本进行数据处理,划分为训练集和测试集;构建U‑Net网络模型;将训练集输入U‑Net网络模型,分析对比基于U‑Net网络模型的损失函数和训练精度变换曲线,对比不同迭代周期训练结果对比图,选择U‑Net网络模型采用的训练周期;U‑Net分类结果与分析。本发明比Deeplabv3+平均交并比高出了8.89%,验证了U‑Net网络模型在大豆种植区提取方面的性能优于SegNet模型和Deeplabv3+模型;U‑Net网络模型作为语义分割网络的一种,在提取大豆种植区这种二分类问题中,展示了良好的效果,比其他模型在遥感提取中表现更为突出。
-
公开(公告)号:CN114973002A
公开(公告)日:2022-08-30
申请号:CN202210705045.3
申请日:2022-06-21
Applicant: 安徽大学
Abstract: 本发明涉及一种基于改进的YOLOv5的麦穗检测方法,其特征在于:包括:获取麦穗图像并对麦穗图像进行标注,获得麦穗图像数据集,将麦穗图像数据集划分为训练集和测试集;构建YOLOv5网络模型;对YOLOv5网络模型进行改进,得到改进的YOLOv5网络模型;将训练集输入改进的YOLOv5网络模型中,对改进的YOLOv5网络模型进行训练;对改进的YOLOv5网络模型进行评价和测试。本发明使用四尺度特征检测,增加浅层检测尺度,来提高小目标的识别精度;本发明引入CA注意力机制,提升算法的特征提取能力;本发明引入CIOU_Loss作为算法损失函数的Bounding Box Regression Loss,提升检验框检测的准确率。
-
-
-
-
-
-
-
-
-