-
公开(公告)号:CN115019302A
公开(公告)日:2022-09-06
申请号:CN202210660801.5
申请日:2022-06-13
Applicant: 江苏大学
IPC: G06V20/68 , G06V10/40 , G06V10/80 , G06V10/764 , G06V10/82 , G06T7/73 , G06T7/521 , G06T7/80 , G06N3/04 , G06N3/08 , A01D91/04
Abstract: 本发明公开了一种改进型YOLOX目标检测模型构建方法及其应用,本申请针对YOLOX基本目标检测模型并进行网络改进,主要分为三个模块:主干特征提取模块、加强特征提取模块和预测特征模块。主干特征提取网络的基础上增添了SE注意力机制模块,通过自主学习的方式来获取到每个特征通道的重要程度,明确建模网络卷积特征通道之间的相互依赖关系来提高网络生成的表示质量,从而筛选出针对通道的注意力,有效地改善网络性能。加强特征提取网络采用ASFF自适应空间特征融合结构;基于所构建的改进型YOLOX目标检测模型结合RealSense相机获取到的深度信息输出三维坐标,实现目标定位。本发明在自然环境下果实采摘问题中,相对于传统方法识别精度要高且识别速度要更快。
-
公开(公告)号:CN114863112A
公开(公告)日:2022-08-05
申请号:CN202210586858.5
申请日:2022-05-27
Applicant: 江苏大学
Abstract: 本发明公开了改进U‑net语义分割模型构建方法及用于茶嫩芽识别与采摘点定位方法、系统,通过构建改进的U‑net语义分割网络结构,并利用带标签嫩芽数据集和不带标签嫩芽数据集对改进的U‑net语义分割网络进行训练,实现半监督学习。实时拍摄茶叶嫩芽图片,经预处理后输入到训练好的网络模型进行特征提取和加强特征提取得到语义分割预测结果,其中改进的预测头部网络涉及到MSA模块,实现多尺度通道注意力;最终根据语义分割结果,定位出嫩芽采摘点坐标,实现基于改进U‑net语义分割模型的茶嫩芽的实时识别和采摘点定位。
-
公开(公告)号:CN114359512A
公开(公告)日:2022-04-15
申请号:CN202111586127.2
申请日:2021-12-20
Applicant: 江苏大学
Abstract: 本发明提供了一种基于图卷积的茶叶嫩梢联合分割方法,输入点经过多层下采样图卷积操作,分别经过线性插值上采样和门控传播模块,得到实例特征信息、语义特征信息,将语义特征信息和实例特征信息在联级注意力融合模块进行特征融合,得到含有语义特征的实例信息和含有实例特征的语义信息。本发明提高点云边缘特征信息的同时,减少模型的参数量、提高分割精度。
-
公开(公告)号:CN114882222B
公开(公告)日:2024-06-07
申请号:CN202210589525.8
申请日:2022-05-27
Applicant: 江苏大学
IPC: G06V10/26 , G06V10/25 , G06V10/764 , G06V10/766 , G06V10/774 , G06V10/82 , G06T7/66 , G06N3/045 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了改进YOLOv5目标检测模型构建方法及用于茶嫩芽识别与采摘点定位方法,构建改进的YOLOv5目标检测模型,通过在Backbone模块中设计改进的CSPDarknet53结构,改进的CSPDarknet53结构是在DarkNet53网络的基础上引入了Nonlinear mapping结构,对特征图进行特征提取。此外利用改进的YOLOv5目标检测模型对图像进行预测,输出茶叶嫩芽的目标检测和采摘区域的语义分割图;基于预测结果计算采摘点;最后输出带有采摘点信息的茶叶嫩芽图像,实现对茶叶嫩芽识别与采摘点定位。
-
公开(公告)号:CN114882222A
公开(公告)日:2022-08-09
申请号:CN202210589525.8
申请日:2022-05-27
Applicant: 江苏大学
IPC: G06V10/26 , G06V10/25 , G06V10/764 , G06V10/766 , G06V10/774 , G06V10/82 , G06T7/66 , G06N3/04 , G06N3/08
Abstract: 本发明公开了改进YOLOv5目标检测模型构建方法及用于茶嫩芽识别与采摘点定位方法,构建改进的YOLOv5目标检测模型,通过在Backbone模块中设计改进的CSPDarknet53结构,改进的CSPDarknet53结构是在DarkNet53网络的基础上引入了Nonlinear mapping结构,对特征图进行特征提取。此外利用改进的YOLOv5目标检测模型对图像进行预测,输出茶叶嫩芽的目标检测和采摘区域的语义分割图;基于预测结果计算采摘点;最后输出带有采摘点信息的茶叶嫩芽图像,实现对茶叶嫩芽识别与采摘点定位。
-
公开(公告)号:CN115885693A
公开(公告)日:2023-04-04
申请号:CN202211594323.9
申请日:2022-12-13
Applicant: 江苏大学
IPC: A01D46/04
Abstract: 本发明提供了一种基于视觉的名优茶分类收获机器人,包括:机架、空间六自由度机械臂、末端执行器、单芽尖收获装置、一芽一叶收获装置、一芽两叶初展收获装置、视觉检测装置、驱动单元和控制单元;末端执行器包括连接件、滑轨、左滑块、右滑块和夹爪,驱动单元能够驱动左滑块沿滑轨滑动,左滑块和右滑块的底端均安装有夹爪,左滑块与右滑块贴合时,两个夹爪能够夹取茶叶;控制单元根据视觉检测装置传递的信号获得名优茶的采摘区域的位置以及识别类别,控制六自由度机械臂和末端执行器到达采摘区域位置进行采摘,然后根据识别类别将名优茶收集到对应收集桶。本发明能够实现对单芽尖、一芽一叶和一芽两叶初展进行分类,并且能够仿人手采摘。
-
公开(公告)号:CN115170888A
公开(公告)日:2022-10-11
申请号:CN202210876236.6
申请日:2022-07-25
Applicant: 江苏大学
IPC: G06V10/764 , G06V10/82 , G06V10/56 , G06N3/04 , G06N3/08
Abstract: 本发明公开了基于视觉信息和语义属性的电子元器件零样本识别模型及方法,识别模型包括视觉分类网络模型、Skip‑gram模型和CBOW模型,根据电子元器件的视觉特征,设计出可见类以及不可见类电子元器件的语义属性表,使可见类和不可见类之间的语义属性共享。通过将视觉信息和标签的语义属性相结合,利用从文本数据中学习到的标签的语义属性,将语义属性作为监督信号,结合已见类图像训练视觉分类网络,进而实现零样本学习。训练时,通过Skip‑gram模型将可见类转化为语义属性类,使视觉分类网络的训练过程变为共享的语义属性类与输入图像之间的训练。在预测过程中,视觉分类网络预测出共享的语义属性类,CBOW模型将语义属性类转换为类别标签,实现对可见类和不可见类的预测,完成电子元器件零样本识别。
-
-
-
-
-
-