-
公开(公告)号:CN109271960B
公开(公告)日:2020-09-04
申请号:CN201811169086.5
申请日:2018-10-08
Applicant: 燕山大学
Abstract: 本发明公开了一种基于卷积神经网络的人数统计方法,涉及计算机视觉领域。首先对图像样本数据进行处理并生成样本图像实际的人群密度图;然后通过提取处理分支网络中的特征图获取层次上下文信息并输送到主干网络中,在主干网络中选择性融合低层和高层特征图,建立一种层次上下文和多尺度特征融合网络;利用处理后的样本数据对建立的网络进行训练;最后使用训练后的模型对任意图像进行人数统计。本发明有效解决了人数统计任务中由于图像尺度不一致导致准确率下降的问题,并提高了方法在不同场景下的普适性。
-
公开(公告)号:CN113628145B
公开(公告)日:2024-02-02
申请号:CN202110992016.5
申请日:2021-08-27
Applicant: 燕山大学
IPC: G06T5/73 , G06T5/20 , G06T7/11 , G06T5/90 , G06N3/0464 , G06N3/0442 , G06N3/045 , G06N3/08
Abstract: 本发明涉及一种图像清晰化方法、系统、设备及存储介质。属于计算机视觉处理技术领域,首先对户外图像进行预处理,得到户外图像的全局大气光值数据、透射图数据以及雨雪层数据。其次,对所述全局大气光值数据、透射图数据以及雨雪层数据进行同时处理,得到去除雨、雪和雾的户外清晰图像。再对所述户外清晰图像进行图像分解处理,得到图像阴影区域,最终利用均值滤波方法去除所述图像阴影区域,得到最终清晰化图像。实现了去除户外图像中的雨、雪、雾、阴影等因素。
-
公开(公告)号:CN109034245A
公开(公告)日:2018-12-18
申请号:CN201810843493.3
申请日:2018-07-27
Applicant: 燕山大学
CPC classification number: G06K9/629 , G06K9/6232 , G06K2209/21 , G06N3/0454
Abstract: 本发明公开了一种利用特征图融合的目标检测方法,包括以下步骤:首先利用ZF网络提取图像特征并得到一系列处于不同层次的特征图;其次将ZF网络提取的图像特征图中的最深层特征图和浅层特征图相融合得到新特征图;再次将新特征图输入到RPN网络中得到区域建议;最后将新特征图和区域建议输入到ROIPooling层中得到区域建议的特征并同时对特征进行分类和对区域建议进行边框回归得到目标检测结果。本发明可以检测出图像中多种类别的目标,且所用的图像无需特定的图像采集设备采集。
-
14.
公开(公告)号:CN103810700B
公开(公告)日:2017-01-11
申请号:CN201410015961.X
申请日:2014-01-14
Applicant: 燕山大学
Abstract: 具有不同型面的视觉目标。本发明公开了一种利用深度图像中的遮挡信息确定下一最佳观测方位的方法,属于计算机视觉领域,包括以下步骤:获取视觉目标的一幅深度图像及其遮挡边界和摄像机内外参数;根据已获得的深度图像中的遮挡边界信息确定出每个遮挡边界点对应的最大深度差相邻点;利用深度图像中的遮挡边界点及其对应的最大深度差相邻点的三维坐标以及摄像机的当前观测方位计算遮挡区域外接表面上各小平面对应的候选参考观测方向及观测中心点;基于投影降维思想确定遮挡区域外接表面最佳小平面集合并基于(56)对比文件Joseph E. Banta等.A Next-Best-ViewSystem for Autonomous 3-D ObjectReconstruction《.IEEE TRANSACTIONS ONSYSTEMS, MAN, AND CYBERNETICS—PART A:SYSTEMS AND HUMANS》.2000,第30卷(第5期),第589-598页.Michael Krainin等.AutonomousGeneration of Complete 3D Object ModelsUsing Next Best View ManipulationPlanning《.2011 IEEE InternationalConference on Robotics and Automation》.2011,第5031-5037页.
-
公开(公告)号:CN104657985A
公开(公告)日:2015-05-27
申请号:CN201510053316.1
申请日:2015-02-02
Applicant: 燕山大学
IPC: G06T7/00
Abstract: 本发明公开了一种基于深度图像遮挡信息的静态视觉目标遮挡规避方法,首先从初始观测方位获取视觉目标的一幅深度图像,并根据遮挡检测算法获取深度图像的遮挡相关信息;从三角网格模型中的三角小剖面入手,利用三角小剖面组成的子区域的法向量来确定候选观测方向集合,再利用这些候选观测方向和各三角小剖面法向量的夹角信息确定出每个候选观测方向的可视空间,进而计算出下一最佳观测方位,从而达到遮挡规避的目的。本发明根据遮挡信息对遮挡区域建立数学模型,无需获取视觉目标的先验知识;对视觉目标的形状无特殊要求,适用于不同型面的视觉目标。
-
公开(公告)号:CN103810700A
公开(公告)日:2014-05-21
申请号:CN201410015961.X
申请日:2014-01-14
Applicant: 燕山大学
Abstract: 本发明公开了一种利用深度图像中的遮挡信息确定下一最佳观测方位的方法,属于计算机视觉领域,包括以下步骤:获取视觉目标的一幅深度图像及其遮挡边界和摄像机内外参数;根据已获得的深度图像中的遮挡边界信息确定出每个遮挡边界点对应的最大深度差相邻点;利用深度图像中的遮挡边界点及其对应的最大深度差相邻点的三维坐标以及摄像机的当前观测方位计算遮挡区域外接表面上各小平面对应的候选参考观测方向及观测中心点;基于投影降维思想确定遮挡区域外接表面最佳小平面集合并基于该最佳小平面集合的信息计算下一最佳观测方位。本发明无需预先获取视觉目标的先验知识及将摄像机的观测位置限定在固定表面上,适用于具有不同型面的视觉目标。
-
-
-
-
-