-
公开(公告)号:CN113570564A
公开(公告)日:2021-10-29
申请号:CN202110823054.8
申请日:2021-07-21
Applicant: 同济大学
Abstract: 一种基于多路卷积网络的多清晰度伪造人脸视频的检测方法,包括以下步骤:使用OpenCV库,对需要检测的视频逐帧提取帧图像,并由后续步骤进行逐帧识别;使用人脸检测模型,对帧图像进行人脸检测步骤,获取一个或数个包含了人脸及小范围背景信息的图像,称为人脸图像;使用事先训练好的三路卷积神经网络模型,首先对人脸图像进行卷积处理,得到对应的特征后使用全连接神经网络进行预测,得到人脸图像为伪造的概率,最后通过对多路网络的预测结果进行求和处理并对比概率值得到该人脸是否为伪造的标签。本发明主要针对通过对抗生成网络及自编码器生成的伪造图片,使用多路卷积网络进行检测,具备较高的准确率和较好的对抗压缩的鲁棒性。
-
公开(公告)号:CN109815908A
公开(公告)日:2019-05-28
申请号:CN201910073658.8
申请日:2019-01-25
Applicant: 同济大学
Abstract: 本发明涉及一种基于深度学习和重叠图像块间度量的行人再辨识方法,包括以下步骤:1)构建基于多块重叠特征图像的深度学习神经网络模型;2)构建基于重叠图像块间度量的模型训练损失函数;3)利用训练样本对模型进行训练;4)将待辨识行人图像和所有比对图像输入模型,得到图像特征;5)利用欧式距离计算公式,获取待辨识行人图像和比对图像之间的最终距离;6)对距离进行排序,获取与待辨识行人对应的比对图像库匹配排序。与现有技术相比,本发明具有准确性高、鲁棒性好等优点。
-
公开(公告)号:CN111428586B
公开(公告)日:2023-05-16
申请号:CN202010158977.1
申请日:2020-03-09
Applicant: 同济大学
IPC: G06V40/20 , G06V40/10 , G06V20/64 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于特征融合与样本增强的三维人体姿态估计方法,涉及三维人体姿态估计与性能优化方法。首先,采用基于候选区域的全卷积网络,对图片中人体进行身体部位分类与像素点三维坐标回归;其次,采用辅助网络样本增强,对没有初始标注的样本位置进行信号补充;最后,将模型与现有效果良好的2D姿态识别模型进行特征融合,从全局姿态的角度与局部回归坐标发挥优势互补性。本发明通过特征融合技术构造基于多任务并行的人体姿态估计架构,为二维和三维姿态识别的优势互补提供有效的理论和方法;通过模拟半监督学习的方式,建立基于数据增强的辅助网络,为提升姿态识别模型泛化能力提供新的思路。
-
公开(公告)号:CN111241987B
公开(公告)日:2022-05-13
申请号:CN202010017088.3
申请日:2020-01-08
Applicant: 同济大学
IPC: G06V20/40 , G06V10/62 , G06V10/764 , G06V10/82 , G06V10/74
Abstract: 本发明涉及一种基于代价敏感的三支决策的多目标模型视觉追踪方法,包括以下步骤:1)在第i帧建立多目标模型Zi;2)利用多目标模型Zi在第(i+1)帧搜索到多目标集合xi+1;3)根据多目标集合xi+1中样本的位置重叠情况,分别求出正‑接受、正‑拒绝、负‑接受、负‑拒绝、中间‑接受、中间‑拒绝6种三支决策结果的代价值λ;4)基于代价敏感的三支决策方法,求得决策边界,将多目标集合xi+1分为正样本负样本和中间样本5)选择中置信度最高的结果s(i+1)1,作为暂时的追踪结果,并记录的追踪结果备用;6)在第(i+2)帧,若中存在s(i+1)j可以提供更可靠的追踪结果,则将其替换s(i+1)1提供的追踪结果。与现有技术相比,本发明具有快速准确、鲁棒性好等优点。
-
公开(公告)号:CN114170625A
公开(公告)日:2022-03-11
申请号:CN202111360243.2
申请日:2021-11-17
Applicant: 同济大学
IPC: G06V40/10 , G06V10/25 , G06V10/40 , G06V10/74 , G06V10/764 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明涉及计算机视觉领域,提出一种上下文感知、噪声鲁棒的行人搜索方法,采用深度学习框架,包括:1)使用一个端到端的行人搜索神经网络同时完成行人检测和行人辨识;2)在神经网络的训练过程中对行人特征的不确定性进行建模并额外使用同一场景行人的上下文信息约束行人的特征表示;3)第一阶段的训练结束后,对于网络预测的每一行人身份特征中心进行相似性比对,分析潜在的数据噪声;4)进行第二阶段的训练,在该阶段的训练过程中对于数据噪声进行抑制;5)使用训练完毕的行人搜索网络进行行人检索任务并按照行人的相似程度对结果进行可视化。此算法具有充分利用场景图像中的上下文信息,对于遮挡以及错误数据标注等来源的噪声鲁棒,相比现有的相关方法更加准确的特点。
-
公开(公告)号:CN109870223B
公开(公告)日:2021-11-09
申请号:CN201910042964.5
申请日:2019-01-17
Applicant: 同济大学
Abstract: 本发明提供一种视觉技术辅助的桥梁动态称重方法,用于对车辆通过桥梁时的车重进行计算,其特征在于,包括:步骤S1,采集车辆通过设有动应变传感器以及交通监控装置的桥梁时产生的桥梁结构动应变数据以及车辆监控视频;步骤S2,对桥梁结构动应变数据进行处理从而提取该桥梁结构动应变数据的静态成分的峰值;步骤S3,通过预先训练的深度神经网络模型对车辆监控视频进行识别从而获取车辆监控视频中车辆的像素坐标;步骤S4,将对像素坐标进行转换从而获取车辆在桥面上的桥面位置坐标;以及步骤S5,根据静态成分的峰值、桥面位置坐标以及预先标定的桥梁影响面计算获取车辆的车重。
-
公开(公告)号:CN106022226B
公开(公告)日:2019-03-01
申请号:CN201610309021.0
申请日:2016-05-11
Applicant: 同济大学
Abstract: 本发明涉及一种基于多方向多通道条形结构的行人再辨识方法,包括以下步骤:1)分别获取待辨识行人图像和对比图像中像素点对应的多方向双颜色通道条形结构特征集Bθ;2)采用颜色差分获取该像素点的多方向双通道条形结构加权颜色差分权重集Wθ;3)采用滑动窗口分别获取不同方向上的直方图描述符Hθ;4)根据堪培拉距离计算基于直方图描述符Hθ的待辨识行人图像和对比图像的距离集Ds;5)选择距离集Ds中最优三元组距离对、ELF描述符和HOG描述符作为特征码,并获取待辨识行人图像和对比图像之间的最终距离;6)根据最近相邻理论,对距离进行排序,最终获取待辨识行人图像和对比图像的匹配率与现有技术相比,本发明具有快速准确、鲁棒性好等优点。
-
公开(公告)号:CN107122795A
公开(公告)日:2017-09-01
申请号:CN201710212251.X
申请日:2017-04-01
Applicant: 同济大学
IPC: G06K9/62
Abstract: 本发明涉及一种基于核化特征和随机子空间集成的行人再辨识方法,包括以下步骤:S1,获取行人图像的训练样本集和测试样本集,确定两个样本间的核化函数;S2,分别将两个样本集的原始特征转化为核化特征;S3,在训练样本集的核化特征空间中,随机选取多个不同的子空间,分别计算不同和相同行人图像对的核化特征差值的协方差矩阵及其逆矩阵,得到图像对的核化特征差值的分布函数;S4,分别在各子空间下,计算样本对为相同行人的概率和为不同行人的概率,将两个概率的比值作为样本间的距离;S5,对距离进行集成,得到各样本对间的最终距离。与现有技术相比,本发明具有良好的行人再辨识能力,适用于各种不同的特征,具有较强的鲁棒性。
-
公开(公告)号:CN109886312B
公开(公告)日:2023-06-06
申请号:CN201910079277.0
申请日:2019-01-28
Applicant: 同济大学
IPC: G06V20/54 , G06V10/774 , G06V10/764 , G06V10/82 , G06N3/0464
Abstract: 本发明涉及一种基于多层特征融合神经网络模型的桥梁车辆车轮检测方法,包括以下步骤:1)构建基于多层特征融合的深度学习神经网络模型;2)利用训练样本数据集对模型进行训练;3)对桥梁上拍摄的待检测图像进行图像增强的预处理操作;4)将预处理后的图像输入模型中,得到具有车轮车辆类别坐标标定的输出图像;5)利用重叠率度量方法,将图像中检测到的车轮与对应车辆进行匹配。与现有技术相比,本发明具有提高了检测的精度,增强了实时性,降低漏检概率等优点,本发明在实现车辆目标检测的同时也实现了车轮的检测,并自动将同一图像上的车辆与车轮匹配。
-
公开(公告)号:CN113256494B
公开(公告)日:2022-11-11
申请号:CN202110614954.1
申请日:2021-06-02
Applicant: 同济大学
Abstract: 一种文本图像超分辨率方法,包括以下步骤:1)图像预处理:由灰度图像均值将灰度图像二值化得到文字蒙版,将文字蒙版(M)叠加到图像上,得到RGBM的四通道低分辨率‑高分辨率图像对;2)模型训练:低分辨率RGBM被送入网络,首先经过文本矫正模块的处理;紧接着,利用矫正后的特征统一构建视觉上下文,这个部分由稠密连接的五个并行正交上下文注意力模块(PCAB)组成;然后,每个PCAB模块的输出被统一合并到一起,进一步在这些特征上构建正交纹理感知注意力,自适应加权那些对重建高频信息有较大影响的特征;最后,经过两倍上采样和一次卷积,得到最终尺寸为4*(2H)*(2W)的输出超分辨率RGBM图像。
-
-
-
-
-
-
-
-
-