-
公开(公告)号:CN113326753B
公开(公告)日:2022-04-19
申请号:CN202110551186.X
申请日:2021-05-20
Applicant: 同济大学
IPC: G06V20/10 , G06V10/774 , G06V10/40 , G06V10/764 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08 , G01V5/00
Abstract: 本发明针对现有X射线安检违禁品检测存在的X射线图像的重叠问题,提出了一种针对重叠问题的X射线安检违禁品检测方法,可以部署到安检机上进行使用。本发明通过以下技术方案来实现:步骤一,将训练集图像输入网络中进行训练;步骤二,将测试集图像输入训练后网络中进行测试。与现有技术相比,本发明具有以下优点:一、本发明采用了端到端的深度学习网络,检测速度快,易于部署。二、本发明仅需使用X射线安检系统生成的图像即可进行预测,和其他方法相比,不需要以额外的物理器材,方法简单易行,可以快速部署到安检机上,投入到实际应用当中。
-
公开(公告)号:CN112651294A
公开(公告)日:2021-04-13
申请号:CN202011225198.5
申请日:2020-11-05
Applicant: 同济大学
Abstract: 本发明公开了一种基于多尺度融合的遮挡人体姿势识别方法,以视频中人体姿态识别为背景,从检测框回归和关键点识别的理论和方法开展研究。首先,在检测框回归阶段,引入惩罚机制训练检测框自动靠近既定目标而远离非目标物体。其次,基于检测框识别结果,使基于级联金字塔的网络架构,采用多尺度特征融合学习更丰富的特征。最后,在关键点识别阶段,提出了基于保持高分辨率的定位算法,同时使用在线难例挖掘策略显式处理困难节点。本发明通过多尺度特征融合优化遮挡人体姿势识别算法,有效提升了遮挡关键点识别的准确性,为视频中人体姿势识别提供有效的方法和新的研究思路。本发明将丰富和拓展机器学习理论和方法。
-
公开(公告)号:CN110018524B
公开(公告)日:2020-12-04
申请号:CN201910077811.4
申请日:2019-01-28
Applicant: 同济大学
Abstract: 本发明涉及计算机视觉领域,采用深度学习框架,具体涉及一种基于视觉—属性的X射线安检违禁品识别方法,包括以下步骤:1)采集标注训练样本,获取原始的单通道16位高、低能X射线灰度图,经过基于视觉‑属性的预处理,得到16位三通道彩色图像作为数据集,用于模型训练和测试;2)将训练集图像输入网络中进行训练:使用darknet网络从输入图像中提取特征,输出特征图谱;采用yolo层在多个尺度对特征图谱进行边界框预测。经过训练,该模型支持对已标注的12类违禁品进行识别;3)将测试集图像输入模型中进行测试,输出识别结果,并在输入图像上标记违禁品显示;根据IoU和R‑P曲线计算得到mAP。与现有技术相比,本发明具有高准确性、高智能化、高通配性等优点。
-
公开(公告)号:CN107122795B
公开(公告)日:2020-06-02
申请号:CN201710212251.X
申请日:2017-04-01
Applicant: 同济大学
IPC: G06K9/62
Abstract: 本发明涉及一种基于核化特征和随机子空间集成的行人再辨识方法,包括以下步骤:S1,获取行人图像的训练样本集和测试样本集,确定两个样本间的核化函数;S2,分别将两个样本集的原始特征转化为核化特征;S3,在训练样本集的核化特征空间中,随机选取多个不同的子空间,分别计算不同和相同行人图像对的核化特征差值的协方差矩阵及其逆矩阵,得到图像对的核化特征差值的分布函数;S4,分别在各子空间下,计算样本对为相同行人的概率和为不同行人的概率,将两个概率的比值作为样本间的距离;S5,对距离进行集成,得到各样本对间的最终距离。与现有技术相比,本发明具有良好的行人再辨识能力,适用于各种不同的特征,具有较强的鲁棒性。
-
公开(公告)号:CN106897669B
公开(公告)日:2019-12-27
申请号:CN201710043339.3
申请日:2017-01-19
Applicant: 同济大学
Abstract: 本发明涉及一种基于一致迭代多视角迁移学习的行人再辨识方法,所述的方法包括以下步骤:对行人图像进行特征提取,获得局部和全局多视角图像视觉词;采用迁移学习和鉴别分析方法构建一致迭代多视角迁移学习优化模型并对模型求解,获取中层次图像特征描述符;对得到的低层次特征描述符和中层次特征描述符进行计算,获得最终的多层次图像特征描述符;利用基于交叉视角二次鉴别分析方法来度量行人的相似性,进而获得行人图像相似度排序结果。与现有技术相比,本发明具有对于多视角下产生的光照、旋转等因素变化有着较好的鲁棒性和可靠性,能够提取图像底层次和中层次的特征描述符,具有良好的行人辨识能力等优点。
-
公开(公告)号:CN106897669A
公开(公告)日:2017-06-27
申请号:CN201710043339.3
申请日:2017-01-19
Applicant: 同济大学
Abstract: 本发明涉及一种基于一致迭代多视角迁移学习的行人再辨识方法,所述的方法包括以下步骤:对行人图像进行特征提取,获得局部和全局多视角图像视觉词;采用迁移学习和鉴别分析方法构建一致迭代多视角迁移学习优化模型并对模型求解,获取中层次图像特征描述符;对得到的低层次特征描述符和中层次特征描述符进行计算,获得最终的多层次图像特征描述符;利用基于交叉视角二次鉴别分析方法来度量行人的相似性,进而获得行人图像相似度排序结果。与现有技术相比,本发明具有对于多视角下产生的光照、旋转等因素变化有着较好的鲁棒性和可靠性,能够提取图像底层次和中层次的特征描述符,具有良好的行人辨识能力等优点。
-
公开(公告)号:CN114170625B
公开(公告)日:2025-03-21
申请号:CN202111360243.2
申请日:2021-11-17
Applicant: 同济大学
IPC: G06V40/10 , G06V10/25 , G06V10/40 , G06V10/74 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/084
Abstract: 本发明涉及计算机视觉领域,提出一种上下文感知、噪声鲁棒的行人搜索方法,采用深度学习框架,包括:1)使用一个端到端的行人搜索神经网络同时完成行人检测和行人辨识;2)在神经网络的训练过程中对行人特征的不确定性进行建模并额外使用同一场景行人的上下文信息约束行人的特征表示;3)第一阶段的训练结束后,对于网络预测的每一行人身份特征中心进行相似性比对,分析潜在的数据噪声;4)进行第二阶段的训练,在该阶段的训练过程中对于数据噪声进行抑制;5)使用训练完毕的行人搜索网络进行行人检索任务并按照行人的相似程度对结果进行可视化。此算法具有充分利用场景图像中的上下文信息,对于遮挡以及错误数据标注等来源的噪声鲁棒,相比现有的相关方法更加准确的特点。
-
公开(公告)号:CN113570564B
公开(公告)日:2024-02-27
申请号:CN202110823054.8
申请日:2021-07-21
Applicant: 同济大学
IPC: G06V40/16 , G06V10/82 , G06N3/0464 , G06N3/0475 , G06N3/045 , G06N3/094 , G06V20/40
Abstract: 一种基于多路卷积网络的多清晰度伪造人脸视频的检测方法,包括以下步骤:使用OpenCV库,对需要检测的视频逐帧提取帧图像,并由后续步骤进行逐帧识别;使用人脸检测模型,对帧图像进行人脸检测步骤,获取一个或数个包含了人脸及小范围背景信息的图像,称为人脸图像;使用事先训练好的三路卷积神经网络模型,首先对人脸图像进行卷积处理,得到对应的特征后使用全连接神经网络进行预测,得到人脸图像为伪造的概率,最后通过对多路网络的预测结果进行求和处理并对比概率值得到该人脸是否为伪造的标签。本发明主要针对通过对抗生成网络及自编码器生成的伪造图片,使用多路卷积网络进行检测,具备较高的准确率和较好的对抗压缩的鲁棒性。
-
公开(公告)号:CN112241682B
公开(公告)日:2022-05-10
申请号:CN202010970031.5
申请日:2020-09-14
Applicant: 同济大学
IPC: G06V40/10 , G06V10/25 , G06V10/46 , G06V10/774 , G06V10/764 , G06V10/80 , G06K9/62
Abstract: 本发明涉及计算机视觉领域,采用深度学习框架,提出了一种基于分块以及多层信息融合的端到端行人搜索方法。本方法包括:1)使用监控摄像机所拍摄的整幅画面作为数据输入;2)使用卷积神经网络提取初步的特征,随后使用候选区域提取网络提取可能存在行人的候选区域;3)对上述候选区域的特征进行池化并使用另一卷积神经网络提取用于行人识别的特征,将特征进行分块进行处理,与网络的中层特征进行特征融合,最后使用在线实例匹配损失训练网络;4)将测试图像输入网络,网络输出图像中的行人位置及对应特征,最后将行人检测结果以及与待查找行人的相似度标注在图像上。此算法相比现有方法具有更加准确、鲁棒性好的特点。
-
公开(公告)号:CN113256494A
公开(公告)日:2021-08-13
申请号:CN202110614954.1
申请日:2021-06-02
Applicant: 同济大学
Abstract: 一种文本图像超分辨率方法,包括以下步骤:1)图像预处理:由灰度图像均值将灰度图像二值化得到文字蒙版,将文字蒙版(M)叠加到图像上,得到RGBM的四通道低分辨率‑高分辨率图像对;2)模型训练:低分辨率RGBM被送入网络,首先经过文本矫正模块的处理;紧接着,利用矫正后的特征统一构建视觉上下文,这个部分由稠密连接的五个并行正交上下文注意力模块(PCAB)组成;然后,每个PCAB模块的输出被统一合并到一起,进一步在这些特征上构建正交纹理感知注意力,自适应加权那些对重建高频信息有较大影响的特征;最后,经过两倍上采样和一次卷积,得到最终尺寸为4*(2H)*(2W)的输出超分辨率RGBM图像。
-
-
-
-
-
-
-
-
-