-
公开(公告)号:CN118397535B
公开(公告)日:2025-04-11
申请号:CN202410390702.9
申请日:2024-04-02
Applicant: 南通大学
IPC: G06V20/52 , G06V40/10 , G06V10/764 , G06V10/774 , G06T5/50 , G06N3/042 , G06N3/0464 , G06N3/048 , G06N3/084
Abstract: 本发明属于人工智能和计算机视觉技术领域,具体涉及一种基于关系图注意力网络的拥挤行人重识别方法。本发明方法首先使用姿态特征提取模块提取外形特征,利用OpenPose获得人物的关键点集合,并使用多个线性层将其转化为高维向量,然后利用关系图注意力网络来获取到图片中的形状特征,从而将干扰人物的信息排除在形状特征外,然后利用提出的形状引导的特征增强模块,通过两阶段的交叉注意力过程,挖掘基于形状特征的外观特征,从而获取到关键的目标人物的具有判别性的特征,并进行人物身份的重识别。本发明方法解决拥挤行人重识别问题,提高模型识别准确率。
-
公开(公告)号:CN119516547A
公开(公告)日:2025-02-25
申请号:CN202411473708.9
申请日:2024-10-22
Applicant: 南通大学
Abstract: 本申请涉及一种基于模糊逻辑推理关系重要性的显著场景图生成方法及装置、场景图生成模型测试方法及装置、计算机设备。该方法包括:步骤S100,计算目标数据集中每个图像样本真实关系的重要性分数;步骤S200,构建目标检测器;步骤S300,构建语义提取器和实例特征细化模块;步骤S400,构建边界框建模模块和特征拼接模块;步骤S500,构建特征融合模块和关系表示建模模块;步骤S600,构建关系损失加权模块;步骤S700,在训练图像样本数量达到批量处理大小的情况下,返回步骤S200;在训练集中图像样本全部读取完成的情况下,进入步骤S800输出场景图生成模型。该方法可以在不减少关系样本数量的基础上,灵活并全面地评估关系的重要性。
-
公开(公告)号:CN118397535A
公开(公告)日:2024-07-26
申请号:CN202410390702.9
申请日:2024-04-02
Applicant: 南通大学
IPC: G06V20/52 , G06V40/10 , G06V10/764 , G06V10/774 , G06T5/50 , G06N3/042 , G06N3/0464 , G06N3/048 , G06N3/084
Abstract: 本发明属于人工智能和计算机视觉技术领域,具体涉及一种基于关系图注意力网络的拥挤行人重识别方法。本发明方法首先使用姿态特征提取模块提取外形特征,利用OpenPose获得人物的关键点集合,并使用多个线性层将其转化为高维向量,然后利用关系图注意力网络来获取到图片中的形状特征,从而将干扰人物的信息排除在形状特征外,然后利用提出的形状引导的特征增强模块,通过两阶段的交叉注意力过程,挖掘基于形状特征的外观特征,从而获取到关键的目标人物的具有判别性的特征,并进行人物身份的重识别。本发明方法解决拥挤行人重识别问题,提高模型识别准确率。
-
公开(公告)号:CN118298428A
公开(公告)日:2024-07-05
申请号:CN202410348938.6
申请日:2024-03-26
Applicant: 南通大学
IPC: G06V20/70 , G06V10/70 , G06V10/44 , G06V10/82 , G06F18/25 , G06F18/22 , G06N3/0455 , G06N3/0464 , G06N3/048
Abstract: 本发明属于人工智能和计算机视觉技术领域,具体涉及一种基于显著视觉上下文的无偏场景图生成方法。本发明提出了一种基于显著视觉上下文的无偏场景图生成方法,该方法采纳了一种先进的轻量且高效的视觉Transformer模型,用于将图像上下文中的视觉特征编码成显著视觉上下文特征。通过结合卷积编码器和位置感知标记模块,DualToken‑ViT能够分别捕获图像内容的局部细节与全局概览,从而构建出一个高效的注意力机制。本发明通过该模型生成的显著视觉上下文特征为关系预测提供了重要的视觉上下文信息,有助于模型更准确地理解图像内容并预测实例之间的关系。本发明方法有效学习图像上下文的视觉特征,提高了场景图生成模型关系预测的鲁棒性。
-
公开(公告)号:CN119131539A
公开(公告)日:2024-12-13
申请号:CN202411232598.7
申请日:2024-09-04
Applicant: 南通大学
IPC: G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/0499 , G06V10/764 , G06N3/0455
Abstract: 本发明公开了一种基于深度视觉特征的场景图生成方法,包括:将数据集中的训练图像输入到目标检测器中,生成待预测关系的主客体实例标签;采用语义提取器来提取主客体实例特征,将主客体实例特征进行特征融合得到关系特征;对每个训练图像对应的深度图进行特征提取和编码,形成深度视觉特征表示;关系特征与深度视觉特征表示进行融合生成深度视觉关系特征表示;生成的深度视觉关系特征表示的标签分布,与真实关系标签进行交叉熵损失计算,然后进行模型训练,直至训练图片全部读取完成输出训练好的模型。本发明融合了深度视觉特征,减少了背景干扰信息的影响,提高了场景图生成模型关系预测的准确性。
-
公开(公告)号:CN115186610A
公开(公告)日:2022-10-14
申请号:CN202210863471.X
申请日:2022-07-21
Applicant: 南通大学
IPC: G06F30/28 , G06F111/10 , G06F113/08 , G06F119/14
Abstract: 本发明公开了一种岩溶隧道岩溶安全厚度计算方法,涉及隧道安全技术领域,包括以下步骤:S1,首先构建岩溶隧道与溶腔在岩溶内的结构模型,根据结构模型,制作基于溶腔所在不同位置下的安全厚度计算模型;S2,获取岩溶隧道所在岩溶内的基础参数和溶腔所在岩溶内的基础参数;S3,在构建的结构模型下,根据结构模型中的各项基础参数输入至安全厚度计算模型中,得到结构模型下的安全厚度,并按照安全厚度与基础参数的基础关系制备安全厚度曲线图,S4,引入S2中获取的隧道和溶腔实际参数,对安全厚度曲线图进行修正。本发明通过建立结构模型的方式,引入历史数据对比,对获取的数据进行判断修正,实现对实际工程进行指导。
-
-
-
-
-