-
公开(公告)号:CN112150504A
公开(公告)日:2020-12-29
申请号:CN202010765183.1
申请日:2020-08-03
Applicant: 上海大学
Abstract: 本发明公开了一种基于注意力机制的视觉跟踪方法。其具体操作步骤为:(1)、对图像数据集进行处理,包括统一尺寸;(2)、构建目标状态估计深度学习网络,提取目标的位置信息;(3)、将(1)中处理好的训练数据输入(2)中构建的深度学习网络进行训练,直到网络收敛得到一个训练好的网络模型,网络输出一个调节矢量;(4)、利用步骤(3)训练好的网络模型进行测试,对于要测试的视频序列给定第一帧图片的目标坐标,然后输入步骤(2)中目标状态估计网络和目标分类网络,由目标分类网络得到一个粗略的目标位置,再由目标状态估计网络得到相对精确目标状态。本发明方法能更准确地提取目标的位置信息,从而更精确估计跟踪目标状态。
-
公开(公告)号:CN109409435A
公开(公告)日:2019-03-01
申请号:CN201811294279.3
申请日:2018-11-01
Applicant: 上海大学
Abstract: 本发明公开了一种基于卷积神经网络的深度感知显著性检测方法,具体步骤如下:a.将深度图转化为三通道深度图;b.将三通道深度图和彩色图分别送入彩色显著性网络和深度显著性网络中,得到彩色显著性图和深度显著性图;c.将彩色显著性图和深度显著性图一起送入显著性融合网络中,得到融合显著性图;d.将彩色显著性图和深度显著性图联合训练并计算损失函数loss,以此来训练步骤b和c中的网络,让其拥有更强的特征提取能力。
-
公开(公告)号:CN109409435B
公开(公告)日:2022-07-15
申请号:CN201811294279.3
申请日:2018-11-01
Applicant: 上海大学
Abstract: 本发明公开了一种基于卷积神经网络的深度感知显著性检测方法,具体步骤如下:a.将深度图转化为三通道深度图;b.将三通道深度图和彩色图分别送入彩色显著性网络和深度显著性网络中,得到彩色显著性图和深度显著性图;c.将彩色显著性图和深度显著性图一起送入显著性融合网络中,得到融合显著性图;d.将彩色显著性图和深度显著性图联合训练并计算损失函数loss,以此来训练步骤b和c中的网络,让其拥有更强的特征提取能力。
-
公开(公告)号:CN107194948B
公开(公告)日:2021-08-10
申请号:CN201710250420.9
申请日:2017-04-17
Applicant: 上海大学
Abstract: 本发明公开了一种基于集成式预测与时空域传播的视频显著性检测方法。(1)、对于视频的当前帧,构建以当前帧为中心的局部时域窗口;(2)、利用光流算法计算所需的光流场(运动矢量场);然后进行超像素分割;最后提取区域特征;(3)、利用当前帧的前两帧信息(包括对应的显著性图),获取集成式显著性预测模型,并对当前帧进行显著性预测;(4)、利用前两帧信息对当前帧进行前向时域传播;利用前两帧信息作用于当前帧的后两帧,获取对应的粗略时空显著性图,并基于此对当前帧进行后向时域传播;(5)、空域传播,得到对应于当前帧的时空显著性图。该方法于无约束视频的结果表明能够均匀点亮、凸显显著性运动物体,同时有效的抑制背景。
-
公开(公告)号:CN107194948A
公开(公告)日:2017-09-22
申请号:CN201710250420.9
申请日:2017-04-17
Applicant: 上海大学
CPC classification number: G06T7/215 , G06T7/251 , G06T2207/10016
Abstract: 本发明公开了一种基于集成式预测与时空域传播的视频显著性检测方法。(1)、对于视频的当前帧,构建以当前帧为中心的局部时域窗口;(2)、利用光流算法计算所需的光流场(运动矢量场);然后进行超像素分割;最后提取区域特征;(3)、利用当前帧的前两帧信息(包括对应的显著性图),获取集成式显著性预测模型,并对当前帧进行显著性预测;(4)、利用前两帧信息对当前帧进行前向时域传播;利用前两帧信息作用于当前帧的后两帧,获取对应的粗略时空显著性图,并基于此对当前帧进行后向时域传播;(5)、空域传播,得到对应于当前帧的时空显著性图。该方法于无约束视频的结果表明能够均匀点亮、凸显显著性运动物体,同时有效的抑制背景。
-
-
-
-