-
公开(公告)号:CN107911719B
公开(公告)日:2019-11-08
申请号:CN201711034839.7
申请日:2017-10-30
Applicant: 中国科学院自动化研究所
IPC: H04N21/25 , H04N21/258 , H04N21/466 , H04N21/45 , G06F16/735 , G06N3/08
Abstract: 本发明涉及社交媒体的视频挖掘和分析技术领域,具体提供了一种视频动态推荐装置,旨在解决如何准确地刻画用户的动态兴趣和视频推荐。为此目的,本发明中的视频动态推荐装置包括视频推荐模型,其可以依据一个或多个历史时刻的视频信息,获取当前时刻的推荐视频。具体地,视频推荐模型包括语义学习单元、用户行为分析单元、循环神经网络、用户相关性挖掘单元和模型训练单元。上述单元不仅可以充分挖掘视频语义信息、用户兴趣信息和不同用户兴趣的相关程度,还可以依据挖掘到的信息进行视频推荐,即实现了对用户观看视频偏好的动态刻画,提高了视频推荐的准确性,特别是提高了对互联网网络在线视频动态推荐的准确性。
-
公开(公告)号:CN107527355B
公开(公告)日:2020-08-11
申请号:CN201710595279.6
申请日:2017-07-20
Applicant: 中国科学院自动化研究所
Abstract: 本发明涉及计算机视觉领域,提出了一种基于卷积神经网络回归模型的视觉跟踪方法、装置,旨在解决目标跟踪过程被分成部件匹配、目标定位两个独立的步骤,不能做到直接从部件推断目标的位置的问题,该方法包括:S1,在视觉跟踪的初始帧,根据给定的待跟踪目标进行图像块的采样,并划分为多个部件;S2,利用随机梯度下降法对预先构建的基于卷积神经网络回归模型进行训练;S3,在视觉跟踪的后续各帧中,基于所述待跟踪目标在上一帧中出现的位置构造搜索区域,通过所述训练好的基于卷积神经网络回归模型得到当前帧中所述待跟踪目标的位置。本发明将部件与目标定位进行了充分结合,具有较好的鲁棒性。
-
公开(公告)号:CN107481262B
公开(公告)日:2020-02-28
申请号:CN201710592783.0
申请日:2017-07-19
Applicant: 中国科学院自动化研究所
IPC: G06T7/246
Abstract: 本发明涉及计算机视觉领域,提出了基于多任务相关粒子滤波的视觉跟踪方法、装置,旨在结合相关滤波和粒子滤波的优势,提高视觉跟踪方法的鲁棒性,该方法包括:S1,基于被测目标前一时刻每个粒子的目标状态生成被测目标当前时刻的粒子,对粒子在空间上进行划分,并对当前时刻的每一个粒子利用多任务相关滤波求解具有判别力的特征;S2,利用多任务相关滤波,对所述当前时刻的粒子进行移动并到达一个稳定的位置;S3,依据通过多任务相关滤波计算得到的所述当前时刻的粒子的响应分布的最大值,计算所述当前时刻的粒子的权重,并进一步计算当前时刻被测目标的跟踪状态的期望值。改善了追踪效果,解决了遮挡问题,提高视觉跟踪的鲁棒性。
-
公开(公告)号:CN107481262A
公开(公告)日:2017-12-15
申请号:CN201710592783.0
申请日:2017-07-19
Applicant: 中国科学院自动化研究所
IPC: G06T7/246
Abstract: 本发明涉及计算机视觉领域,提出了基于多任务相关粒子滤波的视觉跟踪方法、装置,旨在结合相关滤波和粒子滤波的优势,提高视觉跟踪方法的鲁棒性,该方法包括:S1,基于被测目标前一时刻每个粒子的目标状态生成被测目标当前时刻的粒子,对粒子在空间上进行划分,并对当前时刻的每一个粒子利用多任务相关滤波求解具有判别力的特征;S2,利用多任务相关滤波,对所述当前时刻的粒子进行移动并到达一个稳定的位置;S3,依据通过多任务相关滤波计算得到的所述当前时刻的粒子的响应分布的最大值,计算所述当前时刻的粒子的权重,并进一步计算当前时刻被测目标的跟踪状态的期望值。改善了追踪效果,解决了遮挡问题,提高视觉跟踪的鲁棒性。
-
公开(公告)号:CN104142995B
公开(公告)日:2017-09-26
申请号:CN201410370304.7
申请日:2014-07-30
Applicant: 中国科学院自动化研究所
IPC: G06F17/30
Abstract: 本发明公开了一种基于视觉属性的社会事件识别方法,该方法包括:步骤101,从训练事件视频集中的视频中提取视觉属性,所述视觉属性用于描述与视频对应的事件相关的属性;其中,所述训练事件视频中的每个视频对应一个已知事件类别;步骤102,基于提升的迭代模型,训练得到视觉属性分类器,并利用所述视觉属性分类器训练得到多个事件弱分类器;步骤103,基于上述得到的视觉属性分类器以及多个事件弱分类器对待分类事件视频进行分类。本发明针对传统的基于属性的视频事件识别方法中需要大量人工给定的语义标签问题,提出了自动的视觉属性挖掘方法;另外针对视频事件识别中视觉属性复杂多变的问题,本发明对同一种视觉属性建立了多种特征表示。
-
公开(公告)号:CN104133807B
公开(公告)日:2017-06-23
申请号:CN201410366722.9
申请日:2014-07-29
Applicant: 中国科学院自动化研究所
Abstract: 本发明公开了一种利用去噪自编码器学习跨平台多模态媒体数据共同特征表示的方法及装置。所述方法包括:步骤S1,建立优化目标方程;目标方程中,采用单层的去噪自编码器来重建不同平台和不同模态的媒体数据特征,在重建时,考虑模态相关性约束和跨平台约束;其中,所述不同平台和不同模态的媒体数据特征包括图像特征和文本特征;步骤S2,求得所述优化目标方程的解析解,在求解析解过程中,通过寻找偏导数为零的点得到全局最优解;步骤S3,利用边缘化方法对所得到的解析解进行求解,其中求解过程中通过弱大数定律来边缘化特征向量的随机噪声进行求解。本发明借助弱大数定律来边缘化特征向量的随机噪声。
-
公开(公告)号:CN104142995A
公开(公告)日:2014-11-12
申请号:CN201410370304.7
申请日:2014-07-30
Applicant: 中国科学院自动化研究所
IPC: G06F17/30
CPC classification number: G06K9/6267
Abstract: 本发明公开了一种基于视觉属性的社会事件识别方法,该方法包括:步骤101,从训练事件视频集中的视频中提取视觉属性,所述视觉属性用于描述与视频对应的事件相关的属性;其中,所述训练事件视频中的每个视频对应一个已知事件类别;步骤102,基于提升的迭代模型,训练得到视觉属性分类器,并利用所述视觉属性分类器训练得到多个事件弱分类器;步骤103,基于上述得到的视觉属性分类器以及多个事件弱分类器对待分类事件视频进行分类。本发明针对传统的基于属性的视频事件识别方法中需要大量人工给定的语义标签问题,提出了自动的视觉属性挖掘方法;另外针对视频事件识别中视觉属性复杂多变的问题,本发明对同一种视觉属性建立了多种特征表示。
-
公开(公告)号:CN102054176B
公开(公告)日:2012-09-26
申请号:CN201010603240.2
申请日:2010-12-23
Applicant: 中国科学院自动化研究所
Abstract: 本发明用计算机对运动目标的场景图像建立语义场景模型的方法,包括步骤S1:利用图像处理设备输入的视频数据,得到待处理的运动目标图像数据,进行目标检测和跟踪;步骤S2:基于协同训练方法学习行人和车的分类器,减少训练标注样本和充分利用目标的多种特征;根据学习得到的分类器,将目标分为行人和车辆;步骤S3:对于每类目标的轨迹进行轨迹聚类,得到目标的轨迹聚类;步骤S4:根据目标的轨迹聚类,得到每种轨迹的分布区域,并且利用均值漂移算法得到每种轨迹分布区域的主要轨迹和轨迹的入点和出点,从而得到有一定语义的区域和实现应用。
-
-
-
-
-
-
-