-
公开(公告)号:CN119810143A
公开(公告)日:2025-04-11
申请号:CN202411667703.X
申请日:2024-11-21
Applicant: 中国科学院光电技术研究所
IPC: G06T7/246 , G06T7/254 , G06V10/764 , G06V10/80 , G06V10/44 , G06V10/82 , G06V20/17 , G06N3/0455 , G06N3/0464 , G06V10/52 , G06V10/762
Abstract: 本发明公开了一种基于局部与全局注意力建模的目标跟踪方法。包括:搭建主干网络进行初步提取特征,并在基础分类图像集上进行预训练;搭建跟踪颈模块,包括具有全局与局部注意力捕获能力的注意力结构以及用于跟踪精确定位的基于孪生架构的双流单目标跟踪网络;定义优化方法,优化参数与损失函数;将固定的初始帧图像输入主干网络的模板分支,通过跟踪特征主干网络提取出具有不变性的模板特征图;将后续帧按顺序输入主干网络的搜索区域分支,从而实现对给定无人机数据的稳定跟踪与精确定位。本方法在无人机高视角与变换尺度的场景下表现出色,该方法能够以每秒25帧的速度进行实时跟踪,满足了实际应用中的实时性要求。
-
公开(公告)号:CN119649191A
公开(公告)日:2025-03-18
申请号:CN202411783001.8
申请日:2024-12-06
Applicant: 中国科学院光电技术研究所
IPC: G06V10/82 , G06V10/774 , G06V10/25 , G06N3/045 , G06N3/088 , G06N3/0895
Abstract: 本发明提出了一种基于对比学习的无监督目标关键点检测方法,属于计算机视觉领域,包括基于图像重建的关键点预测以及基于对比孪生网络的关键点语义约束两个模块。具体包括:获取样本数据集,其中的每张图像均包含待检测的目标对象;将样本数据集进行数据增强,获得图像对;将图像对输入到预先训练好的基于图像重建的关键点预测模块,得到输入图像的初步关键点检测结果;之后利用基于对比孪生网络的关键点语义约束模块,对初步检测出的目标关键点增加语义约束,其用于提高检测的准确性和鲁棒性。语义约束可以帮助模型理解不同关键点之间的关系,增强特征的区分能力,从而在复杂场景中更准确地定位关键点。
-
公开(公告)号:CN119625023A
公开(公告)日:2025-03-14
申请号:CN202411704864.1
申请日:2024-11-26
Applicant: 中国科学院光电技术研究所
IPC: G06T7/246 , G06N3/0455 , G06N3/0499 , G06N3/096 , G06N3/045 , G06N3/084
Abstract: 本发明公开了一种基于扩散建模的序列化跟踪方法。首先,构建特征提取网络的主干作为编码器模块。其次,搭建基于扩散模型的解码器模块分为加噪阶段与解噪阶段。定义适当的损失函数与优化方法,以确保网络训练过程中的收敛性。对跟踪网络进行充分的训练,使其能够准确识别并跟踪目标。在时序上将训练与推理过程统一,在训练阶段输入多个模板,一个搜索区域,从而在推理阶段实现多帧的更新。在推理阶段,扩散模型从随机高斯噪音中直接采样,从而生成跟踪框的序列。本方法在相似干扰,目标形变的场景下表现出色,不仅跟踪精度高,而且具备实时的序列生成速度,即该方法能够以每秒51帧的速度进行实时跟踪,满足了实际应用中的实时性要求。
-
公开(公告)号:CN118840394A
公开(公告)日:2024-10-25
申请号:CN202411011952.3
申请日:2024-07-26
Applicant: 中国科学院光电技术研究所
IPC: G06T7/254 , G06T7/246 , G06V20/52 , G06V20/40 , G06V10/62 , G06V10/774 , G06V10/26 , G06V10/44 , G06V10/776
Abstract: 本发明提出了一种基于增强目标外观特征显著性的多目标跟踪方法,包括S110:收集动态开放场景下的目标监控视频序列,并将其划分为训练集和验证集;S120:构建基于增强目标外观特征显著性的多目标跟踪框架,该多目标跟踪框架由基础特征提取器、特征解耦子网络、引导外观特征增强子网络和门控外观更新策略组成;S130:执行多目标跟踪框架的训练;S140:执行多目标跟踪框架的在线推理;S150:对于匹配到的目标,利用门控外观更新策略,根据匹配线索自适应选择外观信息特征更新方式,对目标的外观信息特征进行更新。本发明充分考虑了开放场景中的遮挡、模糊和尺度变化等问题,有效提高了个体外观特征的判别性。
-
公开(公告)号:CN111862257B
公开(公告)日:2024-07-26
申请号:CN202010692696.4
申请日:2020-07-17
Applicant: 中国科学院光电技术研究所
IPC: G06T11/00
Abstract: 本发明公开了一种基于反正切函数逼近近似L0范数的压缩感知图像重构方法。使用了一种基于反正切函数的数学模型,在算法的迭代求解过程中通过收缩模型参数实现了从凸优化向近似L0范数非凸优化的逼近,并且根据重构误差项自适应地去调节目标损失函数中的各项权重。本发明提出的方法使得在压缩感知图像重构求解过程中我们的算法以更高的效率和更大的概率去逼近全局最优并且尽可能稀疏的解,相对于传统算法,本发明方法在相对较短的时间内有效地提升了压缩感知图像重构的精度和质量。从而在保证信号重构稀疏度的同时达到更加精确重构原始信号的目的。本发明中的方法在压缩感知图像重建中在相对更短的时间内重建出了更高精度的图像。
-
公开(公告)号:CN118229991A
公开(公告)日:2024-06-21
申请号:CN202410397169.9
申请日:2024-04-03
Applicant: 中国科学院光电技术研究所
Abstract: 本发明公开了一种基于图注意力网络的无监督关键点检测方法,在复杂场景下,如目标发生部分遮挡、变形、大的姿态变化时,很难准确检测到关键点。因此,在本发明中将图注意力网络引入到无监督关键点检测算法中。一方面,图注意力网络能够自适应地学习关键点之间的关系,通过建立以关键点为节点的图网络,在目标遮挡等复杂场景下,能够利用图的拓扑结构推理出被遮挡的关键点位置,从而显著提升关键点检测系统的精度和鲁棒性。另一方面,本发明采用无监督学习方式,不仅大幅减少了对人工标注数据的依赖,而且不受目标类别的限制,可以广泛应用于各类目标及其关键部位的定位。
-
公开(公告)号:CN111985549B
公开(公告)日:2023-03-31
申请号:CN202010805034.3
申请日:2020-08-12
Applicant: 中国科学院光电技术研究所
IPC: G06V10/82 , G06V10/26 , G06T7/73 , G06V10/764 , G06V10/774 , G06V10/80 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种针对给定刚体目标进行部件自动定位识别的深度学习方法,包括对给定刚体目标进行部件分割标注与部件特征点的位置标注;搭建特征提取网络,并在标准图像集上进行预训练进行预训练;搭建用于对给定刚体目标进行部件识别的网络,并为保证网络训练的收敛性,分别定义损失函数与优化方法;根据不同要求对关键点位置估计与语义分割网络分别进行训练;实现对给定刚体的部件自动定位识别的可视化操作等步骤。其识别效果显著,不仅实现对给定刚体目标类的部件定位与识别,还有效保证了遮挡情况中的定位与识别的准确率,而且其获得的部件之间的图关系与关键点定位信息也有助于对该类刚体目标进行空间姿态解算等问题的研究。
-
公开(公告)号:CN108765455B
公开(公告)日:2021-09-21
申请号:CN201810506760.8
申请日:2018-05-24
Applicant: 中国科学院光电技术研究所
Abstract: 本发明公开了一种基于TLD算法的目标稳定跟踪方法,包括以下步骤:(1)在待跟踪视频的起始帧进行初始化训练。(2)在跟踪过程中,检测模块和跟踪模块独立工作:检测模块扫描当前帧图像获得图像块并依次通过方差分类器、合并分类器、最近邻分类器,然后对图像块进行聚类;跟踪模块采用中值光流法由上一帧跟踪结果预测当前帧目标位置,并计算该两帧目标位置中心点间的欧式距离D,若D大于一个自适应的阈值,则判定当前帧跟踪失败,跟踪模块不输出任何结果;(3)整合模块输出跟踪结果;(4)对当前更新后的目标位置,产生新的正负样本,从而更新检测模块。(4)循环(2)‑(3)直至跟踪结束。该方法可以在一定程度上提高跟踪的稳定性。
-
公开(公告)号:CN112949633A
公开(公告)日:2021-06-11
申请号:CN202110245968.0
申请日:2021-03-05
Applicant: 中国科学院光电技术研究所
Abstract: 本发明公开了一种基于改进YOLOv3的红外目标检测方法,主要用于增强对红外目标的检测能力。该方法包括:制作红外数据集;改进的数据增强方式;引入EfficientNet‑B2骨干网络代替原来YOLOv3的DarkNet53,减小模型参数;引入改进后的RFB模块,增大模型感受野,提升对大中尺寸目标的检测能力;引入可变形卷积与动态ReLU激活函数,构建CBD,DBD,D3BD三种结构,增强模型的对不规则几何形状目标的特征提取和特征表达能力,增加模型容量;使用CIoU损失函数作为边界框损失函数,加快模型的收敛速度,提升预测框的准确度;本发明提高了红外目标的检测精确度,可以在复杂背景环境下对红外目标进行快速、准确的检测识别。
-
公开(公告)号:CN106599864B
公开(公告)日:2020-01-07
申请号:CN201611189169.1
申请日:2016-12-21
Applicant: 中国科学院光电技术研究所
Abstract: 本发明是一种基于极值理论的深度人脸识别方法,包括通过深度卷积神经网络对训练人脸图像进行特征提取,对提取的特征进行SVM分类训练,得到决策面,通过深度卷积神经网络对测试人脸图像进行特征提取,结合分类训练得到的决策面进行预测,得到决策值,基于极值理论对决策值进行统计分析得出预测结果。该方法只需每个人脸类具有极少量的训练样本,能够适应实际应用中人脸在很大范围内的光照、姿态、表情、遮挡等变化,能够有效区分陌生人脸,识别率高。同时该方法训练效率高,能够适应实际应用中对增量学习的需求。
-
-
-
-
-
-
-
-
-