-
公开(公告)号:CN105205355B
公开(公告)日:2018-04-10
申请号:CN201510746611.5
申请日:2015-11-05
Applicant: 南通大学
IPC: G06F21/10
Abstract: 本发明涉及基于语义角色位置映射的文本水印嵌入及提取方法,嵌入方法包括如下步骤:1)对水印信息进行预处理,将水印字符转换成由码元构成的信息串;2)通过自然语言处理技术找出文本中语义角色,得到语义角色的位置信息,且将语义角色类型与表示水印信息的码元一一对应;3)逐个取出水印信息串中的码字,将该码字与所对应类型语义角色的一个位置相映射,完成水印的嵌入。提取方法包括:根据嵌入水印时得到语义角色的位置信息,找到文本中该位置的语义角色,再反向映射得到由所述码元表示的水印信息串,最终将其转换成原始水印信息。上述方法对文本格式与内容不做任何改变,具有良好的隐蔽性和鲁棒性,能有效抵抗各种常见的格式变换和攻击。
-
公开(公告)号:CN103701939A
公开(公告)日:2014-04-02
申请号:CN201410018024.X
申请日:2014-01-16
Applicant: 南通大学
Abstract: 本发明提供了数据交互方法,包括:网络中的第一节点获得网络中反馈节点对将要进行数据交互的多个第二节点的信任向量集合;第一节点根据信任向量集合确定多个第二节点的信任值;第一节点根据信任值,从多个第二节点中确定要进行数据交互的交互对象节点;第一节点与确定的交互对象节点进行数据交互。本发明还提供了一种数据交互系统。本发明能有效地降低误判次数,从而促进网络节点数据交互的可靠性和可用性。
-
公开(公告)号:CN118116063B
公开(公告)日:2025-04-11
申请号:CN202311660193.9
申请日:2023-12-06
Applicant: 南通大学
IPC: G06V40/18 , G06V10/82 , G06V10/80 , G06V10/44 , G06V10/52 , G06N3/0464 , G06N3/0455 , G06N3/084
Abstract: 本发明公开了基于多模态与Transformer注意力机制的高精度视线估计方法,包括眼部图像特征提取部分、面部图像特征提取部分、特征融合部分;针对眼部图像,通过膨胀卷积层进行卷积处理,并通过全连接层得到眼部特征。针对面部图像,采用预训练的VGG16网络作为基础,并结合空间注意力机制进一步增强对眼部的关注度,最终通过全连接层得到面部特征。在特征融合部分,采用的Transformer结构独立地增强多模态特征的内部表示。最后,通过融合注意力机制,根据多模态特征在视线估计中的重要性动态调整各特征,从而实现更为精准的视线估计。
-
公开(公告)号:CN117422963B
公开(公告)日:2024-08-06
申请号:CN202311168173.X
申请日:2023-09-11
Applicant: 南通大学
Abstract: 本发明公开了一种基于高维度特征映射和特征聚合的跨模态地点识别方法,包括将RGB图像和红外图像输入SCHAL‑Net网络模型提取各自模态所特有的特征,并在ResNet50中添加浅层特征增强模块,在ResNet50第三阶段输出的特征分别经过高维度特征映射模块及图像块处理,将处理后的特征进行整体和局部特征协同约束,直至训练结束。本发明基于整体和局部特征协同约束的跨模态模型SCHAL‑Net,以减少跨模态视觉地点识别任务中的跨模态差异和模态内部差异,来提高地点识别的准确率。
-
公开(公告)号:CN116664677B
公开(公告)日:2024-06-14
申请号:CN202310599847.5
申请日:2023-05-24
Applicant: 南通大学
IPC: G06T7/73 , G06T3/4076 , G06N3/0464
Abstract: 本发明公开了一种基于超分辨率重建的视线估计方法,包括:使用摄像头获取人脸图像;构建超分辨率重建模块、视线估计模块,首先对超分辨率重建模块进行预训练,之后对网络整体进行训练,输入人脸图像经过超分辨率重建模块,对低分辨率人脸图像恢复细节和清晰度,以提高视线估计精度,经过视线估计模块,其中使用ResNet50提取全局特征,提高特征表达能力,通过空间权重机制,增大视线相关区域的权重,从而进行准确的视线估计;本发明所设计的方法具有更好的学习能力、性能和泛化能力。经过实验验证,本方法能够有效提高低分辨率场景下视线估计的精度。
-
公开(公告)号:CN117315536B
公开(公告)日:2024-06-04
申请号:CN202311240937.1
申请日:2023-09-25
Applicant: 南通大学
Abstract: 本发明公开了一种在线学习专注度监测方法及系统,首先构建数据采集模块、特征提取模块,然后计算眼睛纵横比、嘴部纵横比、头部姿态欧拉角、并构建视线估计模型,然后构建注意力检测模块,通过输入在线学习者的视频,获得眼睛纵横比、嘴部纵横比、头部姿态欧拉角、眼睛视线方向,然后应用注意力检测模块,设置注意力检测模块阈值,大于等于阈值判断为注意力分散,小于阈值为注意力集中;本发明仅需要带摄像头的电脑,不需要佩戴其他额外的仪器,就可以判断在线学习者注意力是否集中,学生常用的笔记本电脑即可满足本发明的环境要求,本发明具有开销较小、较为便利、较强的鲁棒性、较好的精准度等优点。
-
公开(公告)号:CN117612201B
公开(公告)日:2024-05-28
申请号:CN202311371401.3
申请日:2023-10-20
Applicant: 南通大学
IPC: G06V40/10 , G06V10/82 , G06V10/74 , G06N3/0475 , G06N3/0464 , G06N3/094
Abstract: 本发明公开了一种基于特征压缩的单样本行人重识别方法,包括:首先将行人重识别的标准数据集中的已标签图片进行对抗性生成图片操作;然后,将生成的图片以及未标签图片放入单样本行人重识别网络中,获得距离矩阵,选取得分最高的一定数量的图片,并标注伪标签;其次,选取行人图像,进入网络训练,特别地,对图片进行特征压缩,联合损失函数,训练出性能良好的单样本识别网络;最后,完成对目标行人的识别。本发明提出基于特征压缩的单样本行人重识别方法,选择逐步地添加未标注图像到模型中,利用对抗性生成图像避免过拟合,并利用特征压缩减小图片带来的噪声影响,从而提高模型识别的准确率。
-
公开(公告)号:CN117522920A
公开(公告)日:2024-02-06
申请号:CN202311495472.4
申请日:2023-11-10
Applicant: 南通大学
Abstract: 本发明涉及一种基于改进时空图注意力网络的行人轨迹预测方法,属于计算机视觉技术领域。解决了常规模型对行人行为动态特征建模不足的技术问题。技术方案为:将行人轨迹进行时空建模,构造出一个时间图和空间图;使用注意力机制建模行人之间的空间交互和时间依赖性;利用全连接层建模耦合的时空交互特征;使用时间注意力机制增强输出空间嵌入;联合随机高斯噪声,生成各种随机预测;利用全连接层预测行人位置。本发明的有益效果为:提高了模型对行人行为动态特征的建模能力,使行人交互建模更加密集合理,并在不同的场景中,提高了行人轨迹预测的准确性。
-
公开(公告)号:CN112818854B
公开(公告)日:2023-12-05
申请号:CN202110138143.9
申请日:2021-02-01
Applicant: 南通大学
Abstract: 本发明提供了一种应用于校园安防的全天候视频寻人方法,根据摄像头当前所捕获行人图像的模态,使用与其相同模态的行人图像进行匹配,采用跨模态行人再识别技术匹配行人,检索指定的行人,在不同的摄像头中,能够识别出特定的行人。本发明的有益效果为:本发明的将待查询的行人图像转换为彩色和红外两种模态,用于自适应地匹配摄像头在白天和夜间捕获的行人图像,使得视频寻人系统能够在日间环境和夜间环境下寻人,实现全天运转。
-
公开(公告)号:CN117115850A
公开(公告)日:2023-11-24
申请号:CN202310562808.8
申请日:2023-05-18
IPC: G06V40/10 , G06V10/46 , G06V10/774 , G06V10/778 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明公开了一种基于离线蒸馏的轻量级行人重识别方法,在数据集中选取行人的若干张图像构建样本,基于残差网络和归一化的注意力机制,提取样本中图像的特征,通过全连接网络和损失函数,基于提取后的图像特征,训练教师网络,根据获得的教师网络,通过解耦知识蒸馏,协助训练出性能相近的学生网络,并应用该模型,对目标区域的行人进行重识别;本发明提出了基于离线蒸馏的轻量级行人重识别网络,在仅损失少量精度的前提下,极大地降低了网络模型的参数量,有效地提升了行人重识别的推理速度。
-
-
-
-
-
-
-
-
-