基于相关滤波以及深度孪生网络的鲁棒长程目标跟踪方法

    公开(公告)号:CN108734151A

    公开(公告)日:2018-11-02

    申请号:CN201810613931.7

    申请日:2018-06-14

    Applicant: 厦门大学

    Abstract: 基于相关滤波以及深度孪生网络的鲁棒长程目标跟踪方法,涉及计算机视觉技术。通过将相关滤波以及深度孪生网络结合在一个统一的跟踪框架下,能够有效处理长视频中目标遮挡、消失视野等挑战。在该跟踪方法中,所提出的基于D-expert以及C-expert的专家评估机制能有效地对相关滤波以及深度孪生网络共同产生的目标候选位置进行评估筛选,得到最佳的目标跟踪结果,使用该结果来更新相关滤波跟踪器,从而有效避免了相关滤波跟踪器被错误样本更新。提出的目标跟踪方法对长视频中的各类挑战较为鲁棒,能够长时间稳定跟踪目标。

    基于长短时记忆网络的目标跟踪方法

    公开(公告)号:CN108520530A

    公开(公告)日:2018-09-11

    申请号:CN201810323668.8

    申请日:2018-04-12

    Applicant: 厦门大学

    Abstract: 基于长短时记忆网络的目标跟踪方法,涉及计算机视觉技术。首先采用基于相似性学习的快速匹配方法对候选目标状态进行预估计,筛选出高质量的候选目标状态,然后将这些高质量的目标状态用长短时记忆网络进行分类。所用的长短时记忆网络包括用于提取特征的卷积层和用于分类的长短时记忆层。卷积层在大规模图像数据集ILSVRC15上离线训练而得,规避了对目标跟踪数据集过拟合的风险。长短时记忆层通过在线学习而得,充分利用了输入视频序列包含的时间相关性,具有良好的适应目标形态和动作变化的能力。速度显著提高,将一种可以适应目标变化的长短时记忆网络运用于目标跟踪。

    特定对象的目标建议窗口生成方法及其在目标跟踪的应用

    公开(公告)号:CN108257148A

    公开(公告)日:2018-07-06

    申请号:CN201810046395.7

    申请日:2018-01-17

    Applicant: 厦门大学

    Abstract: 特定对象的目标建议窗口生成方法及其在目标跟踪的应用,涉及计算机视觉技术。给定一帧训练视频,将该图像分成三个区域:完全的目标区域,完全的背景区域以及目标和背景的混合区域。对完全的目标区域和完全的背景区域分别计算目标像素和背景像素的概率分布图,更新目标像素和背景像素的概率分布图模型。给定一帧测试视频,利用训练好的概率分布图来预测图像中每个像素属于目标的概率,得到概率响应图。对原图和概率响应图分别提取目标建议窗口,把这些目标建议窗口都作为候选的目标建议窗口。对得到的目标建议窗口基于与对象的相似度进行排序,生成特定对象的目标建议窗口。把特定对象的目标建议窗口作为MDNET的训练样本实现目标跟踪。

    一种基于图像区域内聚测度的目标发现方法

    公开(公告)号:CN105868789A

    公开(公告)日:2016-08-17

    申请号:CN201610212736.4

    申请日:2016-04-07

    Applicant: 厦门大学

    CPC classification number: G06K9/6218

    Abstract: 一种基于图像区域内聚测度的目标发现方法,涉及计算机视觉技术。提供可快速给出少量的目标建议窗口,使得目标建议窗口内尽可能包含目标的一种基于图像区域内聚测度的目标发现方法。同时解决目标检测和显著性检测问题。提出的图像区域内聚测度的方法还被应用于显著性检测,显著性检测也被作为计算机视觉任务的一项基本任务并广泛被应用于其他计算机视觉任务。

    一种基于跨模态对比学习网络的小样本行为识别方法

    公开(公告)号:CN117372927A

    公开(公告)日:2024-01-09

    申请号:CN202311373809.4

    申请日:2023-10-23

    Inventor: 王菡子 王晓 严严

    Abstract: 一种基于跨模态对比学习网络的小样本行为识别方法,涉及计算机视觉技术。A.给定一些视频,将每个视频中随机抽取nseg帧。B.将采样的视频帧输入时空增强模块获得增强的视频向量。C.步骤B生成的视觉向量输入语义生成网络生成语义向量。D.将视觉向量和语义向量相连接构造混合特征向量,输入非线性对比映射头获得变换的混合特征向量。E.利用步骤B中获得的视觉向量和高斯噪声生成合成向量,并输入到非线性对比映射头获得最终的合成向量。F.将步骤D中生成的变换的混合特征向量和步骤E中生成的合成向量视为类原型,利用余弦相似性计算类原型之间的距离,获得预测可能性。与当前主流的小样本行为识别方法相比,所提出的方法分类性能有所提升。

    基于联合和交替学习框架的跨域新类人脸表情识别方法

    公开(公告)号:CN114333027A

    公开(公告)日:2022-04-12

    申请号:CN202111671593.0

    申请日:2021-12-31

    Abstract: 本发明公开了基于联合和交替学习框架的跨域新类人脸表情识别方法,包括:A、建立基本类表情数据集和复合类表情数据集;B、构建用于表情数据识别的情感‑相似度网络;C、对步骤B中的情感分支进行训练全部基本类表情数据的分类模型;D、对步骤B中的相似度分支进行学习表情数据可迁移的特征和度量;E、构建二阶段的联合和交替学习学习框架进行训练情感‑相似度网络,以提高模型对新类表情的泛化能力;F、在复合类表情数据集上采样N个类,使每类包含K个有标签样本作为支持集,每类Q个样本作为查询集,然后基于经训练的相似度分支对查询集进行新类表情分类准确率的计算;本方案是一种灵活且贴近实际需求的解决新类人脸表情识别问题的方案。

    一种基于深度多分支聚合的实时街景图像语义分割方法

    公开(公告)号:CN113011336A

    公开(公告)日:2021-06-22

    申请号:CN202110297170.0

    申请日:2021-03-19

    Applicant: 厦门大学

    Inventor: 严严 翁熙 王菡子

    Abstract: 一种基于深度多分支聚合的实时街景图像语义分割方法,涉及计算机视觉技术。采用流行的编码器‑解码器结构;首先采用轻量级的图像分类网络作为基础,将其改造作为编码器;然后将编码器分为不同的子网络,并将各子网络中的特征分别送入设计的多分支特征聚合网络中和全局上下文模块;接着在多分支特征聚合网络中利用格型增强残差模块和特征变换模块对需要聚合的特征进行空间细节和语义信息上的增强;最后按照特征图的大小,从小到大逐级聚合全局上下文模块的输出特征图和多分支特征聚合网络的输出特征图,以得到最终的语义分割结果图。在处理较大分辨率的街景图像的同时,保持较高的街景图像语义分割精度和实时的预测速度。

    基于幻觉对抗网络的鲁棒目标跟踪方法

    公开(公告)号:CN110135365B

    公开(公告)日:2021-04-06

    申请号:CN201910418050.4

    申请日:2019-05-20

    Applicant: 厦门大学

    Abstract: 基于幻觉对抗网络的鲁棒目标跟踪方法,涉及计算机视觉技术。首先提出一种新的幻觉对抗网络,旨在于学习样本对间的非线性形变,并将学习到的形变施加在新目标以此来生成新的目标形变样本。为了能有效训练所提出的幻觉对抗网络,提出形变重构损失。基于离线训练的幻觉对抗网络,提出基于幻觉对抗网络的目标跟踪方法,该方法能有效缓解深度神经网络在目标跟踪过程中由于在线更新发生的过拟合问题。此外,为了能进一步提升形变迁移质量,提出选择性性变迁移方法,进一步提升了跟踪精度。提出的目标跟踪方法在当前主流目标跟踪数据集上取得了具有竞争力的结果。

Patent Agency Ranking