-
公开(公告)号:CN119187168A
公开(公告)日:2024-12-27
申请号:CN202411699803.0
申请日:2024-11-26
Applicant: 南通大学
Abstract: 本发明涉及一种光伏电站无轮式驱动清洁机器人,包括:外壳、置于外壳内的滑块、中间隔板和清洁刷头,滑块位于外壳内靠近顶部处且受第一电机驱动实现X方向上的移动;所述中间隔板固定于滑块的下方;清洁仓通过第二电机悬挂于中间隔板的下方,并且受第二电机驱动实现Z方向上的移动;清洁刷头,设置于清洁仓内部并且受伸缩臂驱动实现Y方向上的移动,用于对光伏板上表面进行清洁;本清洁机器人通过第一、第二电机的配合实现在光伏板上表面X方向上的移动,此外还通过第二电机和伸缩臂的配合可在光伏板上表面Y方向上的移动。可见本机器人实现了无轮式的左右移动和上下跨板移动,从而对光伏面板进行全面自动清洁,并且驱动结构的结构简单、成本低。
-
公开(公告)号:CN119131539A
公开(公告)日:2024-12-13
申请号:CN202411232598.7
申请日:2024-09-04
Applicant: 南通大学
IPC: G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/0499 , G06V10/764 , G06N3/0455
Abstract: 本发明公开了一种基于深度视觉特征的场景图生成方法,包括:将数据集中的训练图像输入到目标检测器中,生成待预测关系的主客体实例标签;采用语义提取器来提取主客体实例特征,将主客体实例特征进行特征融合得到关系特征;对每个训练图像对应的深度图进行特征提取和编码,形成深度视觉特征表示;关系特征与深度视觉特征表示进行融合生成深度视觉关系特征表示;生成的深度视觉关系特征表示的标签分布,与真实关系标签进行交叉熵损失计算,然后进行模型训练,直至训练图片全部读取完成输出训练好的模型。本发明融合了深度视觉特征,减少了背景干扰信息的影响,提高了场景图生成模型关系预测的准确性。
-
公开(公告)号:CN118762324A
公开(公告)日:2024-10-11
申请号:CN202410899839.7
申请日:2024-07-05
Applicant: 南通大学
IPC: G06V20/52 , G06V10/44 , G06V10/80 , G06V10/82 , G06N3/0442 , G06N3/045 , G06N3/0464 , G06N3/048 , G06N3/084
Abstract: 本发明公开了一种基于模态注意力门控循环单元的多模态人群计数方法,所述方法包括:对人群数据进行预处理;将预处理后的数据输入Res2Net主干网络提取特征输出;将提取的第五层特征输入特定特征融合模块提取隐藏状态;将提取的五层特征和隐藏状态基于多层门控循环单元进行特征融合;将融合的特征输入细节记忆增强模块,得到估计人群密度图。本发明提高准确率的同时,提高了模型在低光照下的鲁棒性。
-
公开(公告)号:CN115841681B
公开(公告)日:2024-09-20
申请号:CN202211353732.X
申请日:2022-11-01
Applicant: 南通大学
IPC: G06V40/10 , G06N3/0464 , G06N3/08 , G06V10/74 , G06V10/764 , G06V10/774
Abstract: 本申请公开了一种基于通道注意力的行人再识别对抗攻击方法,该方法包括:基于掩码算法mask和ECA通道注意力,构建卷积神经网络;基于行人图像训练集,获取卷积神经网络的输入图像;基于输入图像和卷积神经网络,获取输入图像中的深度特征;基于损失函数,获取深度特征的损失值并优化卷积神经网络,得到深度神经网络;基于深度神经网络和待查询图像,获取待查询图像的最终特征;基于最终特征与行人图像的特征向量之间的相似度,获得待查询图像的匹配结果。本申请提出对抗性注意力机制的行人再识别攻击方法,破坏掩码mask的打分规则来打破原有的通道注意力权重,提高了注意力机制对行人再识别系统的鲁棒性。
-
公开(公告)号:CN116682058B
公开(公告)日:2024-07-30
申请号:CN202310622359.1
申请日:2023-05-30
Applicant: 南通大学
IPC: G06V20/52 , G06V10/26 , G06V10/774 , G06V10/40 , G06V10/764 , G06V10/766 , G06V20/70 , G06V10/82 , G06N3/0464 , G06N3/084 , G06N3/0895
Abstract: 本发明公开了一种基于空间池化的轻量级ViT弱监督人群计数方法,属于深度学习和计算机视觉技术领域,具体包括以下步骤:首先,对输入的人群图像进行预处理和伪彩色处理,增强图像的对比度和细节信息;然后,使用PoolFormer作为主干网络,提取图像的特征表示,PoolFormer利用全局池化替代自注意力机制,有效降低了模型参数和计算复杂度;最后,使用深度回归器对特征进行人群数量的回归,深度回归器增强了模型的非线性表达能力。本发明相比现有的基于ViT的弱监督人群计数方法,在保证高准确率的同时,提升了计算效率和模型大小,并且具有更好的泛化能力。
-
公开(公告)号:CN115661754B
公开(公告)日:2024-05-31
申请号:CN202211376084.X
申请日:2022-11-04
Applicant: 南通大学
Abstract: 本发明提供了一种基于维度融合注意力的行人重识别方法,属于智能监控、计算机视觉技术领域。解决了缓解行人不对齐,图像噪声等不利因素对行人重识别结果造成的不利影响的问题。其技术方案为:包括以下步骤:步骤1、准备工作;步骤2、训练阶段;步骤3、测试阶段。本发明的有益效果为:本发明通过注意力机制提升行人重识别的准确率。
-
公开(公告)号:CN117612201A
公开(公告)日:2024-02-27
申请号:CN202311371401.3
申请日:2023-10-20
Applicant: 南通大学
IPC: G06V40/10 , G06V10/82 , G06V10/74 , G06N3/0475 , G06N3/0464 , G06N3/094
Abstract: 本发明公开了一种基于特征压缩的单样本行人重识别方法,包括:首先将行人重识别的标准数据集中的已标签图片进行对抗性生成图片操作;然后,将生成的图片以及未标签图片放入单样本行人重识别网络中,获得距离矩阵,选取得分最高的一定数量的图片,并标注伪标签;其次,选取行人图像,进入网络训练,特别地,对图片进行特征压缩,联合损失函数,训练出性能良好的单样本识别网络;最后,完成对目标行人的识别。本发明提出基于特征压缩的单样本行人重识别方法,选择逐步地添加未标注图像到模型中,利用对抗性生成图像避免过拟合,并利用特征压缩减小图片带来的噪声影响,从而提高模型识别的准确率。
-
公开(公告)号:CN117351533A
公开(公告)日:2024-01-05
申请号:CN202310421455.X
申请日:2023-04-19
Applicant: 南通大学
IPC: G06V40/16 , G06V10/42 , G06V10/774 , G06V10/80 , G06V10/56 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明属于计算机视觉技术领域,具体涉及一种基于注意力知识蒸馏的轻量级行人重识别方法。本发明包括以下步骤:步骤1、输入1张彩色图像至轻量级行人重识别特征提取网络;步骤2、利用ResNet50网络和维度交互注意力块,将步骤1中输入的图像生成富含信息的浅层特征和深层特征;步骤3、利用bottleneck,使前三层的特征对齐第四层的特征,获得对齐的浅层特征和深层特征;步骤4、利用深层特征对浅层特征进行注意力迁移知识蒸馏;步骤5、利用步骤3获得的对齐的深层特征对浅层特征进行解耦知识蒸馏;步骤6、若达到指定的训练轮数,则结束;否则继续完成训练,返回步骤1。本发明减少了模型的参数,从而大大提高了模型的运行速度。
-
公开(公告)号:CN117333744A
公开(公告)日:2024-01-02
申请号:CN202311224546.0
申请日:2023-09-21
Applicant: 南通大学
IPC: G06V10/80 , G06V10/74 , G06V10/774 , G06V10/82 , G06N3/0464
Abstract: 本发明提供了一种基于空间特征融合和原型嵌入的无偏场景图生成方法,属于人工智能和计算机视觉技术领域。解决了场景图生成方法预测关系的准确率不足的技术问题。其技术方案为:用基于原型的表示建模主客体实例及谓词,得到若干实例原型和谓词原型,融合主客体实例原型得到主客体联合特征;建模主客体实例之间的相对位置得到空间特征;融合主客体联合特征与空间特征形成关系表示,与谓词原型进行匹配,获得匹配损失;以匹配损失和距离损失共同度量关系预测与真实谓词类之间的误差。本发明的有益效果为:本发明同时兼顾类内紧凑和类间分离的无偏场景图生成框架和每个实例的相对位置信息,来提高场景图生成中关系预测的准确率。
-
公开(公告)号:CN116664677A
公开(公告)日:2023-08-29
申请号:CN202310599847.5
申请日:2023-05-24
Applicant: 南通大学
IPC: G06T7/73 , G06T3/40 , G06N3/0464
Abstract: 本发明公开了一种基于超分辨率重建的视线估计方法,包括:使用摄像头获取人脸图像;构建超分辨率重建模块、视线估计模块,首先对超分辨率重建模块进行预训练,之后对网络整体进行训练,输入人脸图像经过超分辨率重建模块,对低分辨率人脸图像恢复细节和清晰度,以提高视线估计精度,经过视线估计模块,其中使用ResNet50提取全局特征,提高特征表达能力,通过空间权重机制,增大视线相关区域的权重,从而进行准确的视线估计;本发明所设计的方法具有更好的学习能力、性能和泛化能力。经过实验验证,本方法能够有效提高低分辨率场景下视线估计的精度。
-
-
-
-
-
-
-
-
-