-
公开(公告)号:CN110210608B
公开(公告)日:2021-03-26
申请号:CN201910483957.9
申请日:2019-06-05
Applicant: 国家广播电视总局广播电视科学研究院 , 北京邮电大学
Abstract: 本发明涉及一种基于注意力机制和多层次特征融合的低照度图像增强方法,包括以下步骤:在输入端对低照度图像进行处理,输出四通道特征图;使用基于注意力机制的卷积层作为特征提取模块,用于提取基础特征作为低层特征;将低层特征与相应的高层特征和卷积层最深层次的特征融合,经过反卷积层后,获得最终特征图;输出映射将最终的特征图还原成RGB图片。本发明充分利用了深度卷积神经网络模型的多层次特征,将不同层次特征融合,并通过通道注意力机制,给予特征通道不同的权重,获得了更优的特征表示,提高了图像处理的准确率,获取了高质量图像,可广泛用于计算机低层次视觉任务技术领域。
-
公开(公告)号:CN110188835B
公开(公告)日:2021-03-16
申请号:CN201910483958.3
申请日:2019-06-05
Applicant: 国家广播电视总局广播电视科学研究院 , 北京邮电大学
Abstract: 本发明涉及一种基于生成式对抗网络模型的数据增强行人再识别方法,包括使用Mask‑RCNN图像分割算法分割出图像中行人的掩膜图像;结合掩膜图像和手工标注行人属性,训练一个端到端的改进星形生成式对抗网络,从一个摄像头下的真实行人图像生成任何数量摄像头下的假训练图像;使用训练好的改进星形生成式对抗网络生成所有真实图像对应的所有相机域的假训练图像;将真实图像和假训练图像一起送入行人再识别模型,计算行人图像间距离并完成行人再识别功能。本发明设计合理,利用生成式对抗网络生成更多的训练样本,同时生成的图像背景能够有效地表示相对应摄像头下的真实场景,有效提高行人再识别模型的鲁棒性和判决能力,有效提高了行人再识别的准确率。
-
公开(公告)号:CN110070073A
公开(公告)日:2019-07-30
申请号:CN201910373780.7
申请日:2019-05-07
Applicant: 国家广播电视总局广播电视科学研究院 , 北京邮电大学
Abstract: 本发明涉及一种基于注意力机制的全局特征和局部特征的行人再识别方法,包括:分别提取行人的全局特征和局部特征;在全局特征分支中,以整个行人特征图像作为输入,并将其送入空间注意力机制模块和通道注意力机制模块,将两个模块的特征表示进行融合;在局部特征分支中,把行人特征图水平平均分割为三部分,将分割的三部分输入到通道注意力机制模块得到每一部分的局部特征;将全局特征和局部特征送入特征向量提取模块,得到用于行人预测的特征向量;对整体网络进行训练,得到行人再识别模型。本发明充分利用行人图像的全局特征和局部特征,有效融合了注意力机制,使行人特征更具有判别力,获得了良好的行人再识别结果,提高了模型匹配准确率。
-
公开(公告)号:CN110188835A
公开(公告)日:2019-08-30
申请号:CN201910483958.3
申请日:2019-06-05
Applicant: 国家广播电视总局广播电视科学研究院 , 北京邮电大学
Abstract: 本发明涉及一种基于生成式对抗网络模型的数据增强行人再识别方法,包括使用Mask-RCNN图像分割算法分割出图像中行人的掩膜图像;结合掩膜图像和手工标注行人属性,训练一个端到端的改进星形生成式对抗网络,从一个摄像头下的真实行人图像生成任何数量摄像头下的假训练图像;使用训练好的改进星形生成式对抗网络生成所有真实图像对应的所有相机域的假训练图像;将真实图像和假训练图像一起送入行人再识别模型,计算行人图像间距离并完成行人再识别功能。本发明设计合理,利用生成式对抗网络生成更多的训练样本,同时生成的图像背景能够有效地表示相对应摄像头下的真实场景,有效提高行人再识别模型的鲁棒性和判决能力,有效提高了行人再识别的准确率。
-
公开(公告)号:CN110210608A
公开(公告)日:2019-09-06
申请号:CN201910483957.9
申请日:2019-06-05
Applicant: 国家广播电视总局广播电视科学研究院 , 北京邮电大学
Abstract: 本发明涉及一种基于注意力机制和多层次特征融合的低照度图像增强方法,包括以下步骤:在输入端对低照度图像进行处理,输出四通道特征图;使用基于注意力机制的卷积层作为特征提取模块,用于提取基础特征作为低层特征;将低层特征与相应的高层特征和卷积层最深层次的特征融合,经过反卷积层后,获得最终特征图;输出映射将最终的特征图还原成RGB图片。本发明充分利用了深度卷积神经网络模型的多层次特征,将不同层次特征融合,并通过通道注意力机制,给予特征通道不同的权重,获得了更优的特征表示,提高了图像处理的准确率,获取了高质量图像,可广泛用于计算机低层次视觉任务技术领域。
-
公开(公告)号:CN119181008A
公开(公告)日:2024-12-24
申请号:CN202411294700.6
申请日:2024-09-14
Applicant: 北京邮电大学
Abstract: 本发明提出了基于思维链条的图像级提示自动生成目标检测方法,属于多模态目标检测领域。本发明提出的方法包括步骤:1)将图像输入概念提取模块,筛选前景物体区域并识别;2)建立常识知识图谱GC,删除初步提示Praw中不共存物体;3)使用大语言模型对Pprune进行场景联想和概念推理补充;4)设计自适应阈值算法,删除联想扩充后的提示Psearch中置信度较低的概念得到图像级提示Pimage;5)将提示Pimage与对应图像I输入视觉语言模型完成检测。本发明基于思维链条思想,利用多模态大模型的泛化能力和大语言模型的文本生成能力,设计了图像级提示自动生成方法,有效提高了视觉语言模型目标检测的准确率。
-
公开(公告)号:CN114004752A
公开(公告)日:2022-02-01
申请号:CN202111008281.1
申请日:2021-08-30
Applicant: 北京邮电大学
Abstract: 本发明设计了一种基于非配对训练的错误曝光图像的亮度调节方法,属于计算机视觉图像技术领域。本发明首先将任意亮度等级的图像和目标亮度的图像通过编码器分别解耦为内容分量和一个满足高斯分布的亮度分量,或直接输入一个高斯分布作为目标亮度分量,然后通过解码器将待处理的某亮度图像的内容分量和目标的亮度分量重新耦合生成目标亮度的图像。其中对亮度分量的处理是指将不同亮度等级的亮度分量拟合为唯一对应的高斯分布,将其转化为可调节的变量,本发明通过控制高斯分布的均值来实现目标亮度的转化。实验表明,本发明实现了图像不同亮度间的转化,能够有效恢复不同程度的欠曝和过曝图像,并在各个数据集较强的泛化能力。
-
公开(公告)号:CN109190752B
公开(公告)日:2021-07-23
申请号:CN201810841610.2
申请日:2018-07-27
Applicant: 国家新闻出版广电总局广播科学研究院 , 北京邮电大学
Abstract: 本发明涉及一种基于深度学习的全局特征和局部特征的图像语义分割方法,包括以下步骤:在编码端,使用基于深度学习卷积神经网络模型提取图像的基础深度特征,同时根据卷积层的深度将特征分为低层特征和高层特征;应用特征融合模块将低层特征和高层特征融合成增强型的深度特征;在获取深度特征后,将其输入到解码端;以交叉熵损失函数为目标训练网络,使用mIoU评价网络性能。本发明设计合理,其使用深度卷积神经网络模型提取图像的全局和局部特征,充分利用了全局特征和局部特征的互补性,并且利用了堆叠池化层进一步提高性能,有效地提高了图像语义分割地准确率。
-
公开(公告)号:CN113052776A
公开(公告)日:2021-06-29
申请号:CN202110381898.1
申请日:2021-04-09
Applicant: 北京邮电大学
Abstract: 本发明涉及一种基于多尺度深度图像先验的无监督图像去雾方法,属于计算机视觉图像技术领域。第一步,将原图下采样,用于生成小尺寸图像先验。首先将三张与下采样后的带雾图像尺寸相同的噪声图像分别输入三个编解码器结构的神经网络,得到表示大气光照图、透射图与去雾后的清晰图像的三个中间结果;然后使用大气散射模型将上述三个中间结果进行建模,得到重建后的带雾图像。第二步,将与原尺寸图像大小相同的噪声图像输入相同的网络,并使用小尺寸图像获得的先验对网络进行初始化。本发明设计合理,充分考虑到无监督去雾图像先验提取困难的问题,利用多尺度的方法降低了先验提取的难度,提升了重建图像的视觉效果与稳定性。
-
公开(公告)号:CN108960141B
公开(公告)日:2021-04-23
申请号:CN201810721706.5
申请日:2018-07-04
Applicant: 国家新闻出版广电总局广播科学研究院 , 北京邮电大学
Abstract: 本发明涉及一种基于增强型深度卷积神经网络的行人再识别方法,使用基础深度学习卷积神经网络模型提取行人图像的基础深度特征,同时使用传统手动特征提取方法提取行人图像的手动特征并降维;应用特征重建模块将基础深度特征和手动特征融合成增强型深度特征;通过特征比较预测两张图像中行人是否为同一个人,联合使用分类损失函数和验证损失函数对输入图像进行分类和异同验证,以最小化联合损失为目标来训练网络,使得网络生成更有判别力的行人图像特征。本发明充分利用了手动特征和深度特征之间的互补性,提出了联合使用分类损失和验证损失函数用于监督网络训练的策略,获得了良好的性能,有效地提高行人再识别准确率。
-
-
-
-
-
-
-
-
-