-
公开(公告)号:CN117237343A
公开(公告)日:2023-12-15
申请号:CN202311498290.2
申请日:2023-11-13
Applicant: 安徽大学
IPC: G06T7/00 , G06N3/0895 , G06V10/44 , G06V10/86
Abstract: 本发明公开了一种半监督RGB‑D图像镜面检测方法,包括以下步骤:S1、有标签图像预热三分支学生网络,学生网络提取RGB图像特征和Depth图像特征,融合形成融合特征;S2、将融合特征、RGB图像特征和Depth图像特征送入三分支解码,获得预测图并利用真值监督;S3、利用教师网络获得无标签图像的伪标签;S4、无标签图像与有标签图像混合获得混合图像;S5、混合图像与有标签图像送入学生网络进行训练;S6、将上述训练得到的最优参数加载进模型,将RGB‑D镜面检测数据集送入模型,得到对应图像的预测结果图,完成RGB‑D图像的镜面检测。本发明减少了RGB‑D图像镜面检测对像素级图像标注的依赖,减少了数据集标注所需要的人工成本与时间成本。
-
公开(公告)号:CN110210277B
公开(公告)日:2022-12-09
申请号:CN201810498271.2
申请日:2018-05-22
Applicant: 安徽大学
Abstract: 由于运动目标和场景的复杂性与多变性,当前主流的运动目标检测算法检测结果中都难以完全避免检测出的运动目标不出现空洞现象,本发明提供一种运动目标空洞填充算法,针对空洞区域和附近被检测为前景的区域的性质,提出了基于超像素分割与显著性检测相结合的运动目标空洞填充算法,该方法通过给出的相似度函数能够找到精确的需要填充的区域,将这些区域与VIBE算法检测结果相加,得到比较理想的结果。实验结果表明,本发明方法可以将空洞区域很好地填充上。
-
公开(公告)号:CN109636795B
公开(公告)日:2022-12-09
申请号:CN201811553123.2
申请日:2018-12-19
Applicant: 安徽大学
Abstract: 本发明提供一种实时无跟踪的监控视频遗留物检测方法,将手工特征提取和深度学习识别相结合,实现了免跟踪的遗留物检测。首先,在帧差法的基础上,通过统计前景区域在连续帧序列变化情况,从而得到初始的静止目标区域。然后,我们将梯度方向直方向图和色调‑饱和度‑明度两种手工设计特征相结合来进行可疑物预判断,排除光照变化等影响带来伪静止目标区域。最后,结合深度学习技术排除已知物体和行人,从而对可疑物进行最终确认,实现一种无跟踪的遗留物检测。本方法能排除场景中因光照的变化及行人的滞留产生的伪目标,较准确的检测出遗留物体,并且在单帧处理的时间上比另外两种方法要少,能达到实时报警的要求。
-
公开(公告)号:CN109035293B
公开(公告)日:2022-07-15
申请号:CN201810498274.6
申请日:2018-05-22
Applicant: 安徽大学
Abstract: 为了解决现有技术的不足,本发明提供一种适用于视频图像中显著人体实例分割的方法:将视频序列中运动目标的运动持续性和时空结构一致性引入,实现基于此两者约束的一种将光流聚类、显著性检测和多特征投票相结合的人体实例分割方法。对于运动连续性,采用基于光流区域聚类的前景目标概率计算策略,即基于光流特征对区域进行聚类并以区域面积大小为权重计算前景概率,对于时空结构一致性,我们提出采用以融合显著性检测和基于粗轮廓的多特征投票策略,并结合显著性检测、区域邻帧光利差相,对具有完整轮廓的目标前景进行像素级别上的能量约束优化,从而实现未被遮挡的移动行人的实例分割。
-
公开(公告)号:CN114373109A
公开(公告)日:2022-04-19
申请号:CN202210045761.3
申请日:2022-01-16
Applicant: 安徽大学
IPC: G06V10/774 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于深度学习的自然图像抠图方法及抠图装置。所述方法包括:设计四通道的图像输入;采用预先训练好的预训练模型提取图像输入的特征图;在第一阶段内:设定基于深度学习的网络模型一,针对特征图得到粗略透明度遮罩;在第二阶段内:将特征图随机取多个区域,并将这些区域中对应的粗略透明度遮罩作为第五通道添加到图像输入中;在当前的图像输入下,一方面采用基于深度学习的网络模型二,得到精细透明度遮罩,另一方面求解精细透明度遮罩的困难难度;对一个图像测试集中的所有待抠图的自然图像进行测试。本发明在技术上解决了未知区域较大图片难以抠图以及网络参数过多无法在内存较小的设备上抠图的问题,并在公开自然图像抠图数据集上取得了较好的结果。
-
公开(公告)号:CN114067057A
公开(公告)日:2022-02-18
申请号:CN202111382077.6
申请日:2021-11-22
Applicant: 安徽大学
Abstract: 本发明属于计算机视觉领域,具体涉及一种基于注意力机制的人体重建方法、模型、装置。该重建方法包括如下步骤:步骤一:构建一个人体重建网络模型,所述人体重建网络模型包括特征提取模块、注意力模块、融合模块、参数推断模块和SMPL子模块;步骤二、获取多个包含人物的原始图像,对原始图像进行预处理进而构成训练数据集;步骤三、利用上步骤的训练数据集,通过最小化网络损失函数对所述人体重建网络模型进行训练;步骤四、将待处理的人体图像经过预处理后输入到完成训练的网络模型中,生成具有特定姿态的人体三维模型。本发明解决了现有方法难以根据存在遮挡的单幅人体图像,准确重建出具有准确姿势和形态的三维人体模型的问题。
-
公开(公告)号:CN114066952A
公开(公告)日:2022-02-18
申请号:CN202111382103.5
申请日:2021-11-22
Applicant: 安徽大学
IPC: G06T7/33
Abstract: 本发明属于计算机视觉处理领域,具体涉及一种基于稠密骨架点的柔性形状区域匹配方法、系统及其装置。该方法包括如下步骤:S1:获取原始点云数据,下采样得到源点云S和目标点云T;S2:对S和T进行曲率骨架提取得到源骨架点云SK1和目标骨架点云SK2,并建立对应关系。S3:对源骨架点云SK1进行关键点提取,得到关键点集Node;进而得到区域索引信息。S4:使用图匹配算法,对关键点集Node和目标骨架点云SK2中的点进行匹配,得到二者之间的第三对应关系。S5:根据第三对应关系,将区域索引信息映射到SK2中;进而将目标点云T划分到各自所属的区域中,完成最终的区域对应。本发明解决了现有的匹配方法因物体姿态变化导致的形状匹配准确率和效率低的问题。
-
公开(公告)号:CN109840529A
公开(公告)日:2019-06-04
申请号:CN201910102952.7
申请日:2019-02-01
Applicant: 安徽大学
IPC: G06K9/46
Abstract: 本发明公开了一种基于局部敏感置信度评估的图像匹配方法,包括了以下步骤:步骤1,局部特征提取与预匹配。步骤2,寻找邻居匹配对。步骤3,基于邻居匹配计算投票线并估计真实匹配点的位置。步骤4,定义匹配置信度并进行匹配置信度的评估。步骤5,迭代去除错误匹配与迭代回归正确匹配从而得到最终结果并呈现。有益的技术效果:本发明克服了现有的旨在估算输入图像之间的全局变换或通过全局优化达到匹配解决方案的方法中易出现异常值和容易受到干扰等问题,有效提高了图像匹配的匹配效率和准确性。
-
公开(公告)号:CN105354578A
公开(公告)日:2016-02-24
申请号:CN201510712952.0
申请日:2015-10-27
Applicant: 安徽大学
Abstract: 本发明公开了一种多目标图像匹配方法,包括了以下步骤:步骤1,图像预匹配;步骤2,估算初始匹配特征区域的局部仿射变换;步骤3,定义任意两对局部特征匹配对间的局部仿射变换距离;步骤4,基于仿射变换距离定义仿射变换空间密度函数;步骤5,进行基于密度的仿射变换空间聚类,定位密度较大的所有簇;步骤6,结果呈现。有益的技术效果:本发明克服了现有基于优化的图像匹配算法中优化收敛速度慢且难以获得全局最优解及通常只能处理单目标物体匹配的问题,有效提高了多目标图像匹配的准确性和效率。
-
公开(公告)号:CN117475152A
公开(公告)日:2024-01-30
申请号:CN202311477180.8
申请日:2023-11-08
Applicant: 安徽大学
IPC: G06V10/26 , G06V10/44 , G06V10/82 , G06V10/80 , G06N3/0442 , G06N3/0455 , G06N3/0464 , G06N3/048 , G06N3/084
Abstract: 本发明涉及医学图像分割技术领域,更具体的,涉及一种基于多视角融合的深度息肉分割方法、系统。本发明公开了一种基于多视角融合的深度息肉分割方法,一方面将原始结肠镜图像进行多角度切换处理形成多视角的输入图像,以从这些图像中探索互补的上下文特征关联,进而输出一个好的分割结果;另一方面,本发明对每个视图均进行多尺度特征的提取,并引入了基于交叉门控的策略来进行阶段性解码,从而递归地处理所有的多尺度特征;本发明结合每个视图的结果以及生成的权重综合性地协同进行分割预测。经过仿真对比,本方法在标准数据集上实现了稳健的息肉分割和良好的性能,准确性的相关指标得到了一定程度的提升。
-
-
-
-
-
-
-
-
-