一种高精度识别PID图纸符号的方法

    公开(公告)号:CN116259067B

    公开(公告)日:2023-09-12

    申请号:CN202310538334.3

    申请日:2023-05-15

    Abstract: 本发明提出了一种高精度识别PID图纸符号的方法,涉及PID图纸符号识别领域。本发明提出PCSC_CBAM注意力机制,将该机制引入到YOLOv5中Neck里去,提高YOLOv5网络对符号识别的准确率。对高分辨率PID图纸进行数据增强,然后使用滑动窗口对高分辨率PID图纸进行分割,得到N张小图片。使用改进的YOLOv5网络用于对N张图片符号识别,实现符号的精准分类以及模糊定位;之后将N张图片拼接回高分辨率图像进行非极大值抑制。遍历拼接后的高分辨率图像符号识别的结果,从高分辨率图像中裁切仅包含当前符号的图像,对其使用Canny边缘检测和形态学处理得到符号的精确位置,提高PID图纸符号识别的准确率。

    一种高精度识别PID图纸符号的方法

    公开(公告)号:CN116259067A

    公开(公告)日:2023-06-13

    申请号:CN202310538334.3

    申请日:2023-05-15

    Abstract: 本发明提出了一种高精度识别PID图纸符号的方法,涉及PID图纸符号识别领域。本发明提出PCSC_CBAM注意力机制,将该机制引入到YOLOv5中Neck里去,提高YOLOv5网络对符号识别的准确率。对高分辨率PID图纸进行数据增强,然后使用滑动窗口对高分辨率PID图纸进行分割,得到N张小图片。使用改进的YOLOv5网络用于对N张图片符号识别,实现符号的精准分类以及模糊定位;之后将N张图片拼接回高分辨率图像进行非极大值抑制。遍历拼接后的高分辨率图像符号识别的结果,从高分辨率图像中裁切仅包含当前符号的图像,对其使用Canny边缘检测和形态学处理得到符号的精确位置,提高PID图纸符号识别的准确率。

    一种新的用于视觉识别的CNN和Transformer混合神经网络结构方法与系统

    公开(公告)号:CN117808044A

    公开(公告)日:2024-04-02

    申请号:CN202410051371.6

    申请日:2024-01-15

    Applicant: 济南大学

    Abstract: 卷积神经网络(CNNs)和Vision Transformers(ViTs)是计算机视觉领域两大主流框架。CNNs通过卷积学习局部特征,参数少、复杂度低。ViTs通过自注意机制学习全局依赖,但计算冗余问题显著。头部交互问题鲜有人关注,限制其潜力。为解决问题,提出HybridFormer,包含局部卷积块(LCB)和全局变压器块(GTB)。LCB用多核卷积注意力提取局部多尺度特征,GTB用交叉头自注意学习全局上下文。HybridFormer整合改进卷积和自注意,平衡冗余和依赖,高效表示学习。实验证明HybridFormer在多视觉任务上达最先进水平,包括图像分类、目标检测和语义分割等。

    一种融合局部和全局信息的混合神经网络方法与系统

    公开(公告)号:CN117993442A

    公开(公告)日:2024-05-07

    申请号:CN202410324239.8

    申请日:2024-03-21

    Applicant: 济南大学

    Abstract: 本发明提出了一种融合局部和全局信息的混合神经网络方法与系统,涉及计算机视觉领域。本发明设计局部大核卷积块(LLCB)和全局视觉Transformer块(GVTB)作为混合神经网络SUMMNet的主要构建块,LLCB引入大核卷积注意力(LKCA)来有效地捕获特征映射的局部特征;GVTB引入轻量级跨头自注意力(LCHSA)来增强注意力头部之间的交互,提取特征图的全局信息,并通过降低自注意K和V的维数来降低计算复杂度;LLCB和GVTB的协同使SUMMNet能够在不同的尺度上关注局部和全局信息,高效的进行图像处理。

    一种融合局部和全局信息的混合神经网络方法与系统

    公开(公告)号:CN117993442B

    公开(公告)日:2024-10-18

    申请号:CN202410324239.8

    申请日:2024-03-21

    Applicant: 济南大学

    Abstract: 本发明提出了一种融合局部和全局信息的混合神经网络方法与系统,涉及计算机视觉领域。本发明设计局部大核卷积块(LLCB)和全局视觉Transformer块(GVTB)作为混合神经网络SUMMNet的主要构建块,LLCB引入大核卷积注意力(LKCA)来有效地捕获特征映射的局部特征;GVTB引入轻量级跨头自注意力(LCHSA)来增强注意力头部之间的交互,提取特征图的全局信息,并通过降低自注意K和V的维数来降低计算复杂度;LLCB和GVTB的协同使SUMMNet能够在不同的尺度上关注局部和全局信息,高效的进行图像处理。

    一种高精度识别轮辋焊缝的方法
    8.
    发明公开

    公开(公告)号:CN116630950A

    公开(公告)日:2023-08-22

    申请号:CN202310912754.3

    申请日:2023-07-25

    Applicant: 济南大学

    Abstract: 本发明提出了一种高精度识别轮辋焊缝的方法,涉及轮辋焊缝定位技术领域。本发明提出L1_SelfAttention模块,该模块是基于L1范数的自注意力机制,将该模块引入到基于Transformer的目标检测算法中,提高轮辋焊缝的识别效率。使用工业摄像头采集轮辋数据集,并标注数据集,将数据集分为训练集和预测集。使用改进的基于Transformer的目标检测算法DETR进行模型训练,通过多轮训练提高模型的效果,并进行模型转化,将模型部署到具有开发功能的开发板上,开发板连接摄像头,实时对轮辋焊缝进行识别和定位,相较人工识别定位轮辋焊缝,算法识别能达到较高的准确率和效率,并缩短检测时间,节省人力资源。

    基于像素特征匹配的目标检测损失优化方法

    公开(公告)号:CN114998701A

    公开(公告)日:2022-09-02

    申请号:CN202210818058.1

    申请日:2022-07-13

    Applicant: 济南大学

    Abstract: 本发明提供了一种基于像素特征匹配的目标检测损失优化方法,涉及图像识别目标检测领域。本发明根据特征提取和融合过程中下采样操作对图像像素特征的损失,从像素特征角度入手,对模型特征提取和融合后的特征图上采样融合,评估预测框和真实框在特征图上的映射区域的Dice距离,通过细化预测框和真实框的特征差异进而优化模型参数,采用巴氏距离计算预测框和真实框直方图分布相似度,增强模型对像素级别差异的感知,更直观的评估模型泛化效果,进而提高模型预测框预测的准确度。本发明中,提出基于像素特征匹配损失弥补目标检测网络中直接框回归损失计算的不足,在不增加模型参数量的基础上提高了模型的鲁棒性。

Patent Agency Ranking