-
公开(公告)号:CN108062531A
公开(公告)日:2018-05-22
申请号:CN201711422447.8
申请日:2017-12-25
Applicant: 南京信息工程大学
Abstract: 本发明提供了一种基于级联回归卷积神经网络的视频目标检测方法,并包括如下步骤:一、输入视频图像序列,并将整个视频序列的所有图像帧通过卷积神经网络提取CNN特征;二、利用RPN网络对所述CNN特征的最后一层卷积特征进行分类以获得建议区域,通过多尺度的卷积特征对建议区域进行级联分类和回归,并得到每帧图像的静态图片检测结果;三、将步骤二中得到的检测结果中置信度大于0.6的结果作为跟踪初始值,在CNN特征的conv5‑3卷积特征上通过相关滤波对目标进行跟踪得到时序建议区域,并对时序建议区域进行级联分类和回归,得到时序检测结果;四、将静态图片检测结果和时序检测结果通过共生矩阵对检测结果中异常值进行抑制,从而得到最终检测结果。
-
公开(公告)号:CN112396137A
公开(公告)日:2021-02-23
申请号:CN202011464131.7
申请日:2020-12-14
Applicant: 南京信息工程大学
Abstract: 本发明公开了一种融合上下文语义的的点云语义分割方法。属于人工智能技术领域;具体操作步骤:利使用高层编码特征反馈机制增强低层编码特征,从而使高层语义特征在级联过程中获取高区分度,改善基础的点云语义分割结果;利用高层语义特征的局部上下文信息以自适应地调整每个点的语义特征,从而进一步的优化分割结果的细节信息。本发明设计合理,得到的点云语义分割模型具有分割精度高、噪声小的优点。
-
公开(公告)号:CN108062531B
公开(公告)日:2021-10-19
申请号:CN201711422447.8
申请日:2017-12-25
Applicant: 南京信息工程大学
Abstract: 本发明提供了一种基于级联回归卷积神经网络的视频目标检测方法,并包括如下步骤:一、输入视频图像序列,并将整个视频序列的所有图像帧通过卷积神经网络提取CNN特征;二、利用RPN网络对所述CNN特征的最后一层卷积特征进行分类以获得建议区域,通过多尺度的卷积特征对建议区域进行级联分类和回归,并得到每帧图像的静态图片检测结果;三、将步骤二中得到的检测结果中置信度大于0.6的结果作为跟踪初始值,在CNN特征的conv5‑3卷积特征上通过相关滤波对目标进行跟踪得到时序建议区域,并对时序建议区域进行级联分类和回归,得到时序检测结果;四、将静态图片检测结果和时序检测结果通过共生矩阵对检测结果中异常值进行抑制,从而得到最终检测结果。
-
公开(公告)号:CN105809713A
公开(公告)日:2016-07-27
申请号:CN201610120658.5
申请日:2016-03-03
Applicant: 南京信息工程大学
CPC classification number: G06K9/6234 , G06K9/6273 , G06T2207/10016 , G06T2207/20076 , G06T2207/20081 , G06T2207/30232 , G06T2207/30241
Abstract: 本发明公开了一种基于在线Fisher判别机制增强特征选择的目标跟踪方法。这是一种有效的外观模型,它通过高区分度的特征来处理视觉追踪目标的外观变化。Fisher判别增强特征选择机制能够选择出类内离散程度小,类间离散程度大的特征,从而增强区分目标和背景的能力。此外,本发明采用了粒子滤波结构进行目标追踪,候选粒子的权重体现了粒子周围的上下文信息,因此增强了追踪的鲁棒性。为了提高效率,本发明用了coarse?to?fine搜索机制来提高目标定位的效率和准确性,在CVPR2013跟踪基准测试库上进行了大量实验,在鲁棒性和精度上取得了良好的效果。
-
公开(公告)号:CN103226603A
公开(公告)日:2013-07-31
申请号:CN201310151990.4
申请日:2013-04-27
Applicant: 南京信息工程大学
IPC: G06F17/30
Abstract: 本发明公开了一种基于移动存储设备的文件同步更新方法,按如下步骤进行:(1)建立相互对应的移动主文件夹和固定主文件夹;(2)自动对移动主文件夹和固定主文件夹下的文件进行文件比对,将最新版的文件相互拷贝代替老版的文件;(3)监测移动主文件夹和固定主文件夹的修改时间,若修改时间发生变化,则对移动主文件夹和固定主文件夹下的文件进行文件比对,将最新版的文件相互拷贝代替老版的文件。同时,本发明还提供了一种基于移动存储设备的文件同步更新系统。本发明只要携带移动存储设备,就可以实现多台电脑处理文件的同步,无需依赖于互联网络,使用方便,安全性能高。
-
公开(公告)号:CN112396137B
公开(公告)日:2023-12-15
申请号:CN202011464131.7
申请日:2020-12-14
Applicant: 南京信息工程大学
IPC: G06V10/26 , G06V10/80 , G06V10/82 , G06V10/764 , G06N3/0455
Abstract: 本发明公开了一种融合上下文语义的的点云语义分割方法。属于人工智能技术领域;具体操作步骤:利使用高层编码特征反馈机制增强低层编码特征,从而使高层语义特征在级联过程中获取高区分度,改善基础的点云语义分割结果;利用高层语义特征的局部上下文信息以自适应地调整每个点的语义特征,从而进一步的优化分割结果的细节信息。本发明设计合理,得到的点云语义分割模型具有分割精度高、噪声小的优点。
-
公开(公告)号:CN114511629B
公开(公告)日:2025-03-21
申请号:CN202111649445.9
申请日:2021-12-30
Applicant: 南京信息工程大学
Abstract: 本发明公开了一种自适应多视图和时序特征融合的单人三维姿态估计方法,基于多相机的视频序列图片为输入,设计了一个鲁棒的特征提取器来提取2D姿态特征;基于2D姿态特征为输入,在相机维度上设计了一种自适应的视图自注意力变换网络,通过相对相机位置编码和自注意力机制来融合任意数量的未标定相机下的二维姿态,获取多目融合的姿态特征;基于多目融合的姿态特征为输入,在时间维度上设计一种时序自注意力变换网络,通过自注意力机制自适应地融合多帧特征,获得最终的3D姿态。本发明设计合理,无需重新训练可以直接应用到有任意数量的未标定相机的场景下且网络计算量很小。
-
公开(公告)号:CN119206088A
公开(公告)日:2024-12-27
申请号:CN202411676372.6
申请日:2024-11-22
Applicant: 南京信息工程大学
Abstract: 本发明公开了基于数据驱动压缩与自适应分裂的高效三维重建方法,包括:获取多视角图像生成3D高斯;构建掩码生成网络和判别网络,掩码生成网络生成掩码,筛选被消除的3D高斯;通过可微光栅渲染器优化3D高斯的属性;利用掩码进行高斯选择和消除,生成部分高斯被消除后的渲染图;若达到预设迭代次数,则根据3D高斯对场景的贡献进行保留或消除;否则进行高斯分裂或复制操作。通过掩码生成网络和判别网络的对抗性学习以及重建损失优化,在减少高斯数量的同时实现高精度的三维场景重建。本发明适用于各种三维重建场景,能够大幅提高渲染速度,减少计算资源消耗,同时保持重建结果的视觉质量,适用于虚拟现实、增强现实、电影特效等领域。
-
公开(公告)号:CN114511629A
公开(公告)日:2022-05-17
申请号:CN202111649445.9
申请日:2021-12-30
Applicant: 南京信息工程大学
Abstract: 本发明公开了一种自适应多视图和时序特征融合的单人三维姿态估计方法,基于多相机的视频序列图片为输入,设计了一个鲁棒的特征提取器来提取2D姿态特征;基于2D姿态特征为输入,在相机维度上设计了一种自适应的视图自注意力变换网络,通过相对相机位置编码和自注意力机制来融合任意数量的未标定相机下的二维姿态,获取多目融合的姿态特征;基于多目融合的姿态特征为输入,在时间维度上设计一种时序自注意力变换网络,通过自注意力机制自适应地融合多帧特征,获得最终的3D姿态。本发明设计合理,无需重新训练可以直接应用到有任意数量的未标定相机的场景下且网络计算量很小。
-
-
-
-
-
-
-
-