-
公开(公告)号:CN109214309A
公开(公告)日:2019-01-15
申请号:CN201810933425.6
申请日:2018-08-15
Applicant: 南京信息工程大学
Abstract: 本发明涉及一种基于深度学习的茶山采摘人员异常行为监控方法,属于计算机视觉智能监控技术领域。在茶山上部署摄像头并配置图像信息处理与监控系统,采集图像数据集并对不清晰图像预处理,然后送入图像信息处理系统深度学习神经网络中,提取最能反映茶山上的人体行为信息内在本质的特征向量并进行标记,将带标记的视频图像送入深度学习网络经行训练生成驯化模型,再实时提取茶山上人体征数据和行为数据,结合茶山上采摘人员当前位置数据与驻留时长,通过驯化模型进行模糊逻辑推理判断采摘人员异常情况,在监控终端显示出红色框并经行报警。具有实现方式简单、可扩展性能强、检测效果好、可保障茶叶采摘人员的人身安全等优点。
-
公开(公告)号:CN114694176A
公开(公告)日:2022-07-01
申请号:CN202210220002.6
申请日:2022-03-08
Applicant: 南京信息工程大学
Abstract: 本发明公开了一种基于深度学习的轻量化人体姿态估计方法,包括以下步骤,步骤1:对指定图片进行数据集中;步骤2:对进行了数据集中的图片进行预处理;步骤3:采用改进后的高分辨率网络HRNet作为主干网络,通过残差结构解决深层神经网络出现的网络退化问题,从而降低模型整体的参数量和计算量;步骤4:对四个不同尺度并行子网进行尺度融合,低分辨率的特征图经过上采样后与高分辨率子网的特征图进行融合,生成不同类型关键点的高斯热图,通过在原始的人体姿态估计模型的基础上进行改进,在不降低太多的精度的前提下,减少模型的参数量和计算量,让模型可以运行在低算力平台上,验证基于增强高分辨网络人体姿态估计模型的效果。
-
公开(公告)号:CN103514441A
公开(公告)日:2014-01-15
申请号:CN201310429774.1
申请日:2013-09-21
Applicant: 南京信息工程大学
Abstract: 本发明公开了一种改进的人脸特征点定位跟踪方法,力图在多个方面全面提升算法的性能,具体体现在特征选取,模型训练以及定位跟踪等方面做了较大改进,使算法运行效率大幅提升,并同时保证了定位跟踪的准确性,能够实现在移动平台上实时进行人脸特征点的检测定位。本发明分为训练和匹配两个阶段,训练阶段主要学习全局形状模型,角点形状模型,眼睛形状模型,嘴唇形状模型,角点局部纹理模型,特征点局部纹理模型。匹配过程采用分层的机制,形状投影采取加权投影的方式。本发明的效率大幅提升,每秒可以定位跟踪二十五帧以上,在移动平台上实现了实时定位跟踪。
-
公开(公告)号:CN113610888B
公开(公告)日:2023-11-24
申请号:CN202110725901.7
申请日:2021-06-29
Applicant: 南京信息工程大学
Abstract: 本发明涉及一种基于高斯平滑的孪生网络目标跟踪方法,属于计算机视觉技术领域。该方法包括如下步骤:1、选择目标模板;2、获取搜索区域;3、将获取的模板图像和搜索区域图像分别输入到孪生特征提取网络中进行特征提取;4、特征提取后得到模板图像特征和搜索区域图像特征,对得到的搜索区域图像特征进行高斯平滑处理;5、将模板图像特征和高斯平滑后的搜索区域图像特征进行互相关运算,得到响应图;6、将响应图用双三线性插值放大到搜索区域图像大小,放大后响应图上得分最大的点,即为预测目标的(56)对比文件张智帆.视觉跟踪中的目标模型自适应更新研究《.中国优秀硕士学位论文全文数据库信息科技辑》.2021,(第(2021)05期),I138-1357.邓杨 等.基于孪生检测网络的实时视频追踪算法《.计算机应用》.2019,第39卷(第12期),3440-3444.张云飞 等.一种基于孪生网络的高鲁棒性实时单目标船舶跟踪方法《.舰船科学技术》.2019,第41卷(第23期),103-108.
-
公开(公告)号:CN114998615A
公开(公告)日:2022-09-02
申请号:CN202210469320.6
申请日:2022-04-28
Applicant: 南京信息工程大学
Abstract: 本发明公开了一种基于深度学习的协同显著性检测方法,属于计算机视觉领域。该方法包括如下步骤:1、给定一组相关的图像;2、使用特征提取网络提取一组图像的目标特征;3、通过分组注意力模块改善目标特征;4、通过共识模块产生一组图像的共同显著性目标特征共识;5、通过自上而下解码器生成协同显著性图。通过本发明提供的方法能够有效地从一组图像中提取协同显著性图,并且显著性目标轮廓清晰,背景噪点少。
-
公开(公告)号:CN111814863A
公开(公告)日:2020-10-23
申请号:CN202010629326.6
申请日:2020-07-03
Applicant: 南京信息工程大学
Abstract: 本发明公开了一种轻量级车辆与行人的检测方法,包括以下步骤:(1)对人、车两类图像数据进行预处理,并将图像数据按比例划分为训练集和测试集;(2)构建基于改进的Yolov3-tiny为检测模型:利用反残差网络结构结合多尺度可分离卷积对特征提取网络改进;(3)在步骤(2)构建的检测网络上使用训练集进行模型训练,确定最优模型进行检测。本发明通过对模型的压缩实现了在不降低模型精度的情况下,降低了模型的参数量与计算量;同时,结合了多尺度特征融合与自注意力机制,提升了网络的性能;本发明同时保证了精度和稳定性,实现了在移动端对车辆与行人的检测。
-
公开(公告)号:CN103514441B
公开(公告)日:2017-02-15
申请号:CN201310429774.1
申请日:2013-09-21
Applicant: 南京信息工程大学
Abstract: 本发明公开了一种改进的人脸特征点定位跟踪方法,力图在多个方面全面提升算法的性能,具体体现在特征选取,模型训练以及定位跟踪等方面做了较大改进,使算法运行效率大幅提升,并同时保证了定位跟踪的准确性,能够实现在移动平台上实时进行人脸特征点的检测定位。本发明分为训练和匹配两个阶段,训练阶段主要学习全局形状模型,角点形状模型,眼睛形状模型,嘴唇形状模型,角点局部纹理模型,特征点局部纹理模型。匹配过程采用分层的机制,形状投影采取加权投影的方式。本发明的效率大幅提升,每秒可以定位跟踪二十五帧以上,在移动平台上实现了实时定位跟踪。
-
公开(公告)号:CN118536415A
公开(公告)日:2024-08-23
申请号:CN202410359288.5
申请日:2024-03-27
IPC: G06F30/28 , G06F30/27 , G06N3/0455 , G06N3/0464 , G06N3/0475 , G06N3/094 , G06N3/09 , G06F113/08 , G06F119/14
Abstract: 本发明公开了基于重建生成模型的二维物理场降阶方法,包括如下步骤:步骤一,首先,使用流体仿真软件内的生成器生成模型需要的训练数据,数据主要由时间戳、条件变量、边界条件变量和对应的仿真结果组成;步骤二,经过步骤一生成数据后,将数据进行归一化处理;步骤三,将经过步骤二归一化处理后的数据中的上一帧的仿真结果作为第一部分输入输入至生成器网络;步骤四,拼接时间戳、条件信息、真实的仿真数据和经过步骤三模型生成数据后输入到判别器中以协同训练生成器和判别器。本发明的基于重建生成模型的二维物理场降阶方法,降低流体仿真的使用门槛,不需要研究人员具有过多的先验知识。
-
公开(公告)号:CN114937311A
公开(公告)日:2022-08-23
申请号:CN202210575463.5
申请日:2022-05-24
Applicant: 南京信息工程大学
Abstract: 本发明提供一种基于精确边界预测的时序动作检测方法,涉及计算机视觉技术领域。该基于精确边界预测的时序动作检测方法,包括以下步骤:特征提取,对于输入的未剪辑的视频片段L,采用temporal‑segment‑networks方法对视频中的时空信息进行特征提取;数据预处理,在双流网络提取的时空视频特征序列基础上,加入堆叠的一维时序卷积层,并且引入残差网络的思想,在最后一层卷积网络的输出加入经过归一化处理的RGB和光流特征进行残差融合,生成具有可辨性的边界和动作特征;时序候选提名生成,CFG模块从局部级特征中提取出提名级特征,送入边界匹配层,得到提名级特征;时序动作提名置信度分数生成,用于提高视频中时序动作检测的稳定性。
-
公开(公告)号:CN113610888A
公开(公告)日:2021-11-05
申请号:CN202110725901.7
申请日:2021-06-29
Applicant: 南京信息工程大学
Abstract: 本发明涉及一种基于高斯平滑的孪生网络目标跟踪方法,属于计算机视觉技术领域。该方法包括如下步骤:1、选择目标模板;2、获取搜索区域;3、将获取的模板图像和搜索区域图像分别输入到孪生特征提取网络中进行特征提取;4、特征提取后得到模板图像特征和搜索区域图像特征,对得到的搜索区域图像特征进行高斯平滑处理;5、将模板图像特征和高斯平滑后的搜索区域图像特征进行互相关运算,得到响应图;6、将响应图用双三线性插值放大到搜索区域图像大小,放大后响应图上得分最大的点,即为预测目标的位置。本发明使提取到的图像特征更具有判别性;同时,防止跟踪漂移,使跟踪结果更准确。
-
-
-
-
-
-
-
-
-