-
公开(公告)号:CN116259067B
公开(公告)日:2023-09-12
申请号:CN202310538334.3
申请日:2023-05-15
Applicant: 济南大学 , 济南市城镇化与村镇建设服务中心
IPC: G06V30/422 , G06V30/148 , G06V30/19 , G06V30/18 , G06V30/14 , G06V10/82
Abstract: 本发明提出了一种高精度识别PID图纸符号的方法,涉及PID图纸符号识别领域。本发明提出PCSC_CBAM注意力机制,将该机制引入到YOLOv5中Neck里去,提高YOLOv5网络对符号识别的准确率。对高分辨率PID图纸进行数据增强,然后使用滑动窗口对高分辨率PID图纸进行分割,得到N张小图片。使用改进的YOLOv5网络用于对N张图片符号识别,实现符号的精准分类以及模糊定位;之后将N张图片拼接回高分辨率图像进行非极大值抑制。遍历拼接后的高分辨率图像符号识别的结果,从高分辨率图像中裁切仅包含当前符号的图像,对其使用Canny边缘检测和形态学处理得到符号的精确位置,提高PID图纸符号识别的准确率。
-
公开(公告)号:CN116259067A
公开(公告)日:2023-06-13
申请号:CN202310538334.3
申请日:2023-05-15
Applicant: 济南大学 , 济南市城镇化与村镇建设服务中心
IPC: G06V30/422 , G06V30/148 , G06V30/19 , G06V30/18 , G06V30/14 , G06V10/82
Abstract: 本发明提出了一种高精度识别PID图纸符号的方法,涉及PID图纸符号识别领域。本发明提出PCSC_CBAM注意力机制,将该机制引入到YOLOv5中Neck里去,提高YOLOv5网络对符号识别的准确率。对高分辨率PID图纸进行数据增强,然后使用滑动窗口对高分辨率PID图纸进行分割,得到N张小图片。使用改进的YOLOv5网络用于对N张图片符号识别,实现符号的精准分类以及模糊定位;之后将N张图片拼接回高分辨率图像进行非极大值抑制。遍历拼接后的高分辨率图像符号识别的结果,从高分辨率图像中裁切仅包含当前符号的图像,对其使用Canny边缘检测和形态学处理得到符号的精确位置,提高PID图纸符号识别的准确率。
-
公开(公告)号:CN117808044A
公开(公告)日:2024-04-02
申请号:CN202410051371.6
申请日:2024-01-15
Applicant: 济南大学
IPC: G06N3/0455 , G06N3/0464 , G06N3/082 , G06V10/82
Abstract: 卷积神经网络(CNNs)和Vision Transformers(ViTs)是计算机视觉领域两大主流框架。CNNs通过卷积学习局部特征,参数少、复杂度低。ViTs通过自注意机制学习全局依赖,但计算冗余问题显著。头部交互问题鲜有人关注,限制其潜力。为解决问题,提出HybridFormer,包含局部卷积块(LCB)和全局变压器块(GTB)。LCB用多核卷积注意力提取局部多尺度特征,GTB用交叉头自注意学习全局上下文。HybridFormer整合改进卷积和自注意,平衡冗余和依赖,高效表示学习。实验证明HybridFormer在多视觉任务上达最先进水平,包括图像分类、目标检测和语义分割等。
-
公开(公告)号:CN117935251A
公开(公告)日:2024-04-26
申请号:CN202410330639.X
申请日:2024-03-22
Applicant: 济南大学
IPC: G06V20/68 , G06V10/77 , G06V10/764 , G06V10/82 , G06N3/045 , G06N3/0464 , G06N3/08
Abstract: 本发明提出了一种基于聚合注意力的食品识别方法及系统,涉及计算机视觉领域。本发明通过构建聚合注意力模块进行图像特征的提取,并提出了以聚合注意力模块为主要构件的主干网络,主干网络采用金字塔结构,主干网络包括四个阶段,阶段与阶段之间对图像进行下采样增加图像的通道数且降低图像分辨率,通过主干网络提取图像特征,从而实现食品识别的高效性。
-
公开(公告)号:CN116109532A
公开(公告)日:2023-05-12
申请号:CN202211420956.8
申请日:2022-11-15
Applicant: 济南大学
Abstract: 本发明提出了一种针对PID图像类别不平衡的数据增强方法,涉及图像处理数据增强技术领域。本发明可以定向的选择PID图像中一个或者多个类别进行数据增强,并将数据增强后需要增强的类别数量拟合正态分布,增加了目标和背景组合的多样性,提高了模型识别的准确率与鲁棒性,增强了模型的泛化能力,在一定程度上降低人工采集和标注图像的成本与时间。
-
公开(公告)号:CN117993442A
公开(公告)日:2024-05-07
申请号:CN202410324239.8
申请日:2024-03-21
Applicant: 济南大学
IPC: G06N3/0464 , G06N3/0455 , G06V10/80 , G06V10/82
Abstract: 本发明提出了一种融合局部和全局信息的混合神经网络方法与系统,涉及计算机视觉领域。本发明设计局部大核卷积块(LLCB)和全局视觉Transformer块(GVTB)作为混合神经网络SUMMNet的主要构建块,LLCB引入大核卷积注意力(LKCA)来有效地捕获特征映射的局部特征;GVTB引入轻量级跨头自注意力(LCHSA)来增强注意力头部之间的交互,提取特征图的全局信息,并通过降低自注意K和V的维数来降低计算复杂度;LLCB和GVTB的协同使SUMMNet能够在不同的尺度上关注局部和全局信息,高效的进行图像处理。
-
公开(公告)号:CN117993442B
公开(公告)日:2024-10-18
申请号:CN202410324239.8
申请日:2024-03-21
Applicant: 济南大学
IPC: G06N3/0464 , G06N3/0455 , G06V10/80 , G06V10/82
Abstract: 本发明提出了一种融合局部和全局信息的混合神经网络方法与系统,涉及计算机视觉领域。本发明设计局部大核卷积块(LLCB)和全局视觉Transformer块(GVTB)作为混合神经网络SUMMNet的主要构建块,LLCB引入大核卷积注意力(LKCA)来有效地捕获特征映射的局部特征;GVTB引入轻量级跨头自注意力(LCHSA)来增强注意力头部之间的交互,提取特征图的全局信息,并通过降低自注意K和V的维数来降低计算复杂度;LLCB和GVTB的协同使SUMMNet能够在不同的尺度上关注局部和全局信息,高效的进行图像处理。
-
公开(公告)号:CN116630950A
公开(公告)日:2023-08-22
申请号:CN202310912754.3
申请日:2023-07-25
Applicant: 济南大学
IPC: G06V20/60 , G06V10/82 , G06V10/774 , G06V10/776 , G06V10/74 , G06N3/045 , G06N3/08
Abstract: 本发明提出了一种高精度识别轮辋焊缝的方法,涉及轮辋焊缝定位技术领域。本发明提出L1_SelfAttention模块,该模块是基于L1范数的自注意力机制,将该模块引入到基于Transformer的目标检测算法中,提高轮辋焊缝的识别效率。使用工业摄像头采集轮辋数据集,并标注数据集,将数据集分为训练集和预测集。使用改进的基于Transformer的目标检测算法DETR进行模型训练,通过多轮训练提高模型的效果,并进行模型转化,将模型部署到具有开发功能的开发板上,开发板连接摄像头,实时对轮辋焊缝进行识别和定位,相较人工识别定位轮辋焊缝,算法识别能达到较高的准确率和效率,并缩短检测时间,节省人力资源。
-
公开(公告)号:CN114998701A
公开(公告)日:2022-09-02
申请号:CN202210818058.1
申请日:2022-07-13
Applicant: 济南大学
Abstract: 本发明提供了一种基于像素特征匹配的目标检测损失优化方法,涉及图像识别目标检测领域。本发明根据特征提取和融合过程中下采样操作对图像像素特征的损失,从像素特征角度入手,对模型特征提取和融合后的特征图上采样融合,评估预测框和真实框在特征图上的映射区域的Dice距离,通过细化预测框和真实框的特征差异进而优化模型参数,采用巴氏距离计算预测框和真实框直方图分布相似度,增强模型对像素级别差异的感知,更直观的评估模型泛化效果,进而提高模型预测框预测的准确度。本发明中,提出基于像素特征匹配损失弥补目标检测网络中直接框回归损失计算的不足,在不增加模型参数量的基础上提高了模型的鲁棒性。
-
公开(公告)号:CN117952969B
公开(公告)日:2024-06-21
申请号:CN202410346862.3
申请日:2024-03-26
Applicant: 济南大学
IPC: G06T7/00 , G06V10/25 , G06V10/26 , G06V10/762 , G06V10/764 , G06V10/82 , G06N3/045 , G06N3/08
Abstract: 本发明提出了一种基于选择注意力的子宫内膜癌分析方法及系统,涉及计算机视觉领域。本发明提出了选择注意力模块,通过采样学习token和K_token之间的稀疏关联来预测更新K_token,降低了传统自注意力的计算量,且K_token能够提供视觉内容上更有意义的信息,从而提高了捕获全局依赖的效率。对大尺寸病理切片进行标注、预处理后,使用滑动窗口进行切割,得到N张小的补丁图像,使用基于选择注意力的主干网络对补丁图像进行检测,得到组织细胞的良恶性结果,从而提高了子宫内膜癌病理切片的识别效果。
-
-
-
-
-
-
-
-
-