-
公开(公告)号:CN119187168B
公开(公告)日:2025-05-13
申请号:CN202411699803.0
申请日:2024-11-26
Applicant: 南通大学
Abstract: 本发明涉及一种光伏电站无轮式驱动清洁机器人,包括:外壳、置于外壳内的滑块、中间隔板和清洁刷头,滑块位于外壳内靠近顶部处且受第一电机驱动实现X方向上的移动;所述中间隔板固定于滑块的下方;清洁仓通过第二电机悬挂于中间隔板的下方,并且受第二电机驱动实现Z方向上的移动;清洁刷头,设置于清洁仓内部并且受伸缩臂驱动实现Y方向上的移动,用于对光伏板上表面进行清洁;本清洁机器人通过第一、第二电机的配合实现在光伏板上表面X方向上的移动,此外还通过第二电机和伸缩臂的配合可在光伏板上表面Y方向上的移动。可见本机器人实现了无轮式的左右移动和上下跨板移动,从而对光伏面板进行全面自动清洁,并且驱动结构的结构简单、成本低。
-
公开(公告)号:CN118799949B
公开(公告)日:2025-04-11
申请号:CN202410833622.6
申请日:2024-06-26
Applicant: 南通大学
Abstract: 本发明公开了一种低光环境下高精度的视线估计方法,包括如下步骤:S1.数据集预处理,模拟低光环境S2.低光图像增加,得到增强后的图像;S3.增强图像校准,得到校准图像;S4.图像进行特征提取,输出特征向量;使用改进的残差网络模型ResNet18对校准后的图像进行特征提取;S5.通过全连接层将特征向量映射成三维输出向量;S6.对三维输出向量的前两个元素应用双曲正切变换,以获取精确的预测视线方向;S7.对三维输出向量的第三个元素通过sigmoid函数变换,得到视线预测的不确定性;S8.采用MSELoss损失函数来度量预测结果与真实值之间的误差。本发明方法能有效解决在低光环境下视线估计精度显著下降的问题,从而提高系统的实用性和准确性。
-
公开(公告)号:CN118212654B
公开(公告)日:2025-03-11
申请号:CN202410299786.5
申请日:2024-03-15
Applicant: 南通大学
IPC: G06V40/10 , G06V10/40 , G06V10/82 , G06V10/80 , G06N3/0464 , G06V10/764
Abstract: 本发明提供了一种基于改进FCOS算法的实时行人检测方法,属于图像处理和机动车道路安全行驶技术领域。解决了复杂场景下遮挡行人、小目标行人检测精度和实时性不高的技术问题。其技术方案为:首先对FCOS算法进行改进,对于数据集使用数据增强模拟行人身体被遮挡场景并间接添加小行人目标丰富数据集;其次,引入轻量级主干网络替换原特征提取网络轻量化网络模型,减少网络参数,调整特征金字塔和头部网络;最后,使用轻量级注意力网络并对主干网络特征融合进行调整。本发明的有益效果为:有效实现遮挡和小目标较多的实时行人检测。
-
公开(公告)号:CN119516547A
公开(公告)日:2025-02-25
申请号:CN202411473708.9
申请日:2024-10-22
Applicant: 南通大学
Abstract: 本申请涉及一种基于模糊逻辑推理关系重要性的显著场景图生成方法及装置、场景图生成模型测试方法及装置、计算机设备。该方法包括:步骤S100,计算目标数据集中每个图像样本真实关系的重要性分数;步骤S200,构建目标检测器;步骤S300,构建语义提取器和实例特征细化模块;步骤S400,构建边界框建模模块和特征拼接模块;步骤S500,构建特征融合模块和关系表示建模模块;步骤S600,构建关系损失加权模块;步骤S700,在训练图像样本数量达到批量处理大小的情况下,返回步骤S200;在训练集中图像样本全部读取完成的情况下,进入步骤S800输出场景图生成模型。该方法可以在不减少关系样本数量的基础上,灵活并全面地评估关系的重要性。
-
公开(公告)号:CN117744714B
公开(公告)日:2025-01-03
申请号:CN202311835225.4
申请日:2023-12-28
Applicant: 南通大学
IPC: G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于回调的深度神经网络错误定位方法,分为模型准备、错误检测、统计分析三个步骤。在模型准备阶段,选择合理的DNN模型以满足问题需求。错误检测阶段持续跟踪关键参数,通过回调机制监控训练损失、验证损失、训练准确率和验证准确率等参数。统计分析阶段运用滑动平均、变化率计算、阈值判定和可视化分析等方法,准确定位模型中的错误,提高深度学习模型的诊断精度和全面性。针对DNN模型中的欠拟合和过拟合问题进行错误定位,实现了对深度学习模型训练问题的实时诊断与定位,提高了定位的全面性和精确性,为深度学习模型的错误诊断提供更加全面的支持。
-
公开(公告)号:CN117830783B
公开(公告)日:2024-09-03
申请号:CN202410005814.8
申请日:2024-01-03
Applicant: 南通大学
IPC: G06V10/80 , G06T3/4053 , G06V40/16 , G06T3/4007 , G06V10/82 , G06N3/0464 , G06N3/048
Abstract: 本发明属于计算机视觉领域,具体涉及一种基于局部超分辨率融合注意力机制的视线估计方法。包括如下步骤:步骤S1、使用摄像头获取帧图像;步骤S2、采用人脸检测模型对人脸区域和双眼区域进行检测和定位,将人脸图像进行裁剪,并截取眼部图像;步骤S3、将人脸图像通过人脸注意力强化特征提取模块,强化并提取人脸图像特征;步骤S4、将双眼图像通过基于局部超分辨率的眼部特征提取模块,提取双眼图像特征;步骤S5、通过全连接层融合提取的人脸图像和双眼图像特征得到视线估计结果。本发明提取超分辨率后的眼部特征,进行准确地视线估计,从空间和通道两个方向增强低分辨率全局特征,以增加低分辨率环境下提取人脸特征的能力,提升视线估计的效果。
-
公开(公告)号:CN118397535A
公开(公告)日:2024-07-26
申请号:CN202410390702.9
申请日:2024-04-02
Applicant: 南通大学
IPC: G06V20/52 , G06V40/10 , G06V10/764 , G06V10/774 , G06T5/50 , G06N3/042 , G06N3/0464 , G06N3/048 , G06N3/084
Abstract: 本发明属于人工智能和计算机视觉技术领域,具体涉及一种基于关系图注意力网络的拥挤行人重识别方法。本发明方法首先使用姿态特征提取模块提取外形特征,利用OpenPose获得人物的关键点集合,并使用多个线性层将其转化为高维向量,然后利用关系图注意力网络来获取到图片中的形状特征,从而将干扰人物的信息排除在形状特征外,然后利用提出的形状引导的特征增强模块,通过两阶段的交叉注意力过程,挖掘基于形状特征的外观特征,从而获取到关键的目标人物的具有判别性的特征,并进行人物身份的重识别。本发明方法解决拥挤行人重识别问题,提高模型识别准确率。
-
公开(公告)号:CN114022906B
公开(公告)日:2024-07-09
申请号:CN202111504859.2
申请日:2021-12-10
Applicant: 南通大学
IPC: G06V40/10 , G06V10/44 , G06V10/764 , G06V10/82 , G06V40/20
Abstract: 本发明提供一种基于多层次特征与注意力机制的行人再识别方法及模型,涉及计算机视觉行人再识别技术领域,其中行人再识别方法包含以下步骤:S1:准备图像样本集;S2:进行数据预处理:所述数据预处理包括随机擦除和随机加噪的数据增强方法;S3:采用Resnet50框架,并添加注意力机制;S4:分别进行多层次特征提取;S5:训练模型;S6:测试训练后的模型。通过采用随机擦除和随机加噪的数据增强方法,有效地解决了由于物体遮挡或周围环境较复杂等因素造成的识别率较低的问题,使得训练后的模型具有更高的鲁棒性。
-
公开(公告)号:CN118298428A
公开(公告)日:2024-07-05
申请号:CN202410348938.6
申请日:2024-03-26
Applicant: 南通大学
IPC: G06V20/70 , G06V10/70 , G06V10/44 , G06V10/82 , G06F18/25 , G06F18/22 , G06N3/0455 , G06N3/0464 , G06N3/048
Abstract: 本发明属于人工智能和计算机视觉技术领域,具体涉及一种基于显著视觉上下文的无偏场景图生成方法。本发明提出了一种基于显著视觉上下文的无偏场景图生成方法,该方法采纳了一种先进的轻量且高效的视觉Transformer模型,用于将图像上下文中的视觉特征编码成显著视觉上下文特征。通过结合卷积编码器和位置感知标记模块,DualToken‑ViT能够分别捕获图像内容的局部细节与全局概览,从而构建出一个高效的注意力机制。本发明通过该模型生成的显著视觉上下文特征为关系预测提供了重要的视觉上下文信息,有助于模型更准确地理解图像内容并预测实例之间的关系。本发明方法有效学习图像上下文的视觉特征,提高了场景图生成模型关系预测的鲁棒性。
-
公开(公告)号:CN118212654A
公开(公告)日:2024-06-18
申请号:CN202410299786.5
申请日:2024-03-15
Applicant: 南通大学
IPC: G06V40/10 , G06V10/40 , G06V10/82 , G06V10/80 , G06N3/0464 , G06V10/764
Abstract: 本发明提供了一种基于改进FCOS算法的实时行人检测方法,属于图像处理和机动车道路安全行驶技术领域。解决了复杂场景下遮挡行人、小目标行人检测精度和实时性不高的技术问题。其技术方案为:首先对FCOS算法进行改进,对于数据集使用数据增强模拟行人身体被遮挡场景并间接添加小行人目标丰富数据集;其次,引入轻量级主干网络替换原特征提取网络轻量化网络模型,减少网络参数,调整特征金字塔和头部网络;最后,使用轻量级注意力网络并对主干网络特征融合进行调整。本发明的有益效果为:有效实现遮挡和小目标较多的实时行人检测。
-
-
-
-
-
-
-
-
-