-
公开(公告)号:CN103903163B
公开(公告)日:2017-05-10
申请号:CN201410069229.0
申请日:2014-02-27
Applicant: 中国科学院自动化研究所
IPC: G06F17/00
Abstract: 本发明公开了一种基于耦合主题模型的协同滤波方法,用于在推荐系统中有效结合历史评分信息与用户生成内容(User‑generated Content,简称UGC),通过进行评分预测进行有效推荐。该方法包括以下步骤:1)获取用户生成内容的记录;2)获取用户对产品的评分记录;3)提取用户文档和产品文档;4)利用耦合主题模型学习用户特征向量和产品特征向量;5)根据特征向量计算目标用户对不同产品的评分,来进行相应的产品推荐。本发明引入对用户生成内容信息的分析,能够直接的显式的发现用户兴趣和产品属性,而且有效解决了评分矩阵的稀疏问题,获得比基于用户评分信息的预测更准确的效果。
-
公开(公告)号:CN103400143B
公开(公告)日:2017-03-01
申请号:CN201310293779.6
申请日:2013-07-12
Applicant: 中国科学院自动化研究所
Abstract: 本发明公开一种基于多视角的数据子空间聚类方法,其包括:提取多视角数据库中的多视角特征;对于所述多视角数据库,选择特定的线性重构表示方法,并确定所述线性重构表示方法相对应的正则化约束方式;确定所述多视角特征中每个视角特征的重构误差权重;根据所选定的重构表示方法和所获得的不同视角特征的重构误差权重,学习得到对所述多视角数据库中所有样本进行重构的线性表示矩阵;所述线性表示矩阵用于表示数据库中样本之间的关系,元素值表示其所在行对应的样本重构其所在列对应样本的重构系数;将所述线性表示矩阵进行相应处理得到度量所述多视角数据库中样本相似性的亲和矩阵;利用谱聚类算法对所述亲和矩阵进行分割得到多视角数据子空间。
-
公开(公告)号:CN106203363A
公开(公告)日:2016-12-07
申请号:CN201610562181.6
申请日:2016-07-15
Applicant: 中国科学院自动化研究所
CPC classification number: G06K9/00342 , G06K9/46 , G06K9/468 , G06K9/6256 , G06N3/08
Abstract: 本发明公开了一种人体骨架运动序列行为识别方法。其中,该方法包括获取人体骨架节点坐标;将人体骨架各肢体对应的节点进行串接,形成四肢和躯干的运动特征表达;将四肢和躯干的运动特征表达进行串接,形成人体骨架的向量表达;将人体骨架运动序列中各帧所对应的向量表达,按照时间顺序排列,得到三维矩阵;对三维矩阵中的数值做归一化和维度归一化,得到人体骨架序列对应的图像表达;采用卷积神经网络来自适应地提取图像表达中的纹理特征表达;基于该纹理特征表达进行行为类别判定,并以投票的方式确定人体骨架序列所属的行为类别。本发明实施例无需复杂的数据预处理,即可根据人体骨架坐标序列对人的行为进行精确识别。
-
公开(公告)号:CN102902981B
公开(公告)日:2016-07-06
申请号:CN201210340160.1
申请日:2012-09-13
Applicant: 中国科学院自动化研究所
Abstract: 本发明公开了一种基于慢特征分析的暴力视频检测方法,包括以下步骤:对已经标好类的视频进行密集轨迹提取,基于轨迹用慢特征分析方法学习出慢特征函数,通过慢特征函数得到视频段的特征表示,最后对提取的特征进行训练并建模;对新来视频进行特征提取,将提取的特征输入到训练得到的模型,得到视频的类别(暴力视频或非暴力视频)。该方法通过密集轨迹提取构建了有效的特征向量,并通过慢特征分析方法学习出了非常具有区分力的视频特征表示。近几年随着社交网站的发展,大量的视频被上传到互联网供用户下载,其中不乏含有暴力内容的视频,这些内容会对青少年产生不良影响,基于慢特征分析的暴力视频检测方法能有效检测出这些不良内容,对建设健康的互联网环境具有重要作用。
-
公开(公告)号:CN105205448A
公开(公告)日:2015-12-30
申请号:CN201510522576.9
申请日:2015-08-24
Applicant: 中国科学院自动化研究所 , 富士通株式会社
CPC classification number: G06K9/00536 , G06K9/6267 , G06K2209/01
Abstract: 一种基于深度学习的文字识别方法,包括:设计更深的多层卷积神经网络结构,把每一个字符作为一个类别;采用反向传播算法训练卷积神经网络用以识别单一字符,有监督地最小化该网络的目标函数,得到字符识别模型;最后根据现有识别出的字符,采用维特比算法从词典中找出最有可能的词语。在测试的时候,给定一个输入,需要先进行滑动窗口扫描获得备选字符,再从备选字符中找出最可能的词语。本方法利用更深的卷积神经网络来学习文字特征,对于文字的颜色、大小、光照、模糊具有鲁棒性,字符识别和词语识别能够保持较高的准确率。
-
公开(公告)号:CN105005774A
公开(公告)日:2015-10-28
申请号:CN201510451033.2
申请日:2015-07-28
Applicant: 中国科学院自动化研究所
CPC classification number: G06K9/00228 , G06K9/00288 , G06N3/088
Abstract: 本发明公开一种基于卷积神经网络的人脸亲属关系识别方法及装置,主要用于根据人脸图像进行亲属关系识别等领域。所述方法包括人脸识别、人脸关键点位置切分、人脸区域位置切分、卷积神经网络建立及训练、亲属关系识等。所述方法提出的卷积神经网络具有强大的提取亲属关系特征的功能,对于输入图片具有较强的鲁棒能力。该方法提出的基于人脸关键点以及人脸不同区域特征的卷积神经网络方法,实现了更好的亲属识别功能。该方法可以获得优于传统基于人脸的亲属关系识别效果。
-
公开(公告)号:CN104156952A
公开(公告)日:2014-11-19
申请号:CN201410373199.2
申请日:2014-07-31
Applicant: 中国科学院自动化研究所
IPC: G06T7/00
Abstract: 本发明公开了一种抵抗形变的图像匹配方法,该方法包括以下步骤:步骤1:对两幅输入图像分别进行二值化处理,从中确定参考图像与待匹配图像,对于参考图像与待匹配图像,利用不同的采样间距进行采样,得到相应的多个采样点;步骤2:从待匹配图像的采样点中依次确定每个参考图像采样点的K1个候选对应点;步骤3:从参考图像中每个采样点的K1个候选对应点中确定K2个更为精细的候选对应点,其中,K2
-
公开(公告)号:CN103903163A
公开(公告)日:2014-07-02
申请号:CN201410069229.0
申请日:2014-02-27
Applicant: 中国科学院自动化研究所
Abstract: 本发明公开了一种基于耦合主题模型的协同滤波方法,用于在推荐系统中有效结合历史评分信息与用户生成内容(User-generated?Content,简称UGC),通过进行评分预测进行有效推荐。该方法包括以下步骤:1)获取用户生成内容的记录;2)获取用户对产品的评分记录;3)提取用户文档和产品文档;4)利用耦合主题模型学习用户特征向量和产品特征向量;5)根据特征向量计算目标用户对不同产品的评分,来进行相应的产品推荐。本发明引入对用户生成内容信息的分析,能够直接的显式的发现用户兴趣和产品属性,而且有效解决了评分矩阵的稀疏问题,获得比基于用户评分信息的预测更准确的效果。
-
公开(公告)号:CN103839081A
公开(公告)日:2014-06-04
申请号:CN201410064937.5
申请日:2014-02-25
Applicant: 中国科学院自动化研究所
IPC: G06K9/64
Abstract: 本发明公开了一种基于拓扑表达的跨视角步态识别方法,该方法包括以下步骤:根据某个人某个视角的人体空间轮廓图片,建立人体空时轮廓;以数据点为顶点构建立方体,得到包述人体空时轮廓外表面的三角形集合;对所有边和顶点排序,构建新空间,计算其拓扑表达,形成每个方向每个维度下的类柱状图;在类柱状图上提取特征,得到这个人这个视角下的特征表达;得到每个人在各个视角下的特征表达,作为匹配模板;计算测试样本的特征表达,将其与匹配模板进行匹配,得到步态识别结果。本发明从步态的全局信息出发,融合部分有区分力的局部信息,解决了人体步态在跨视角下利用局部信息难以区分的问题,从而提高了步态识别,尤其是跨视角下的精度。
-
公开(公告)号:CN103246895A
公开(公告)日:2013-08-14
申请号:CN201310178645.X
申请日:2013-05-15
Applicant: 中国科学院自动化研究所
IPC: G06K9/66
Abstract: 本公开提供了一种基于深度信息的图像分类方法,包括:使用已知深度信息的第一训练图像集训练马尔可夫随机场MRF;使用所述MRF从未知深度信息的第二训练图像集提取深度信息;从所述第二训练图像集提取局部特征;基于所提取的深度信息和所提取的局部特征来训练支持向量机分类器;以及使用经训练的支持向量机分类器来对待分类图像集中的图像进行分类,其中所述第二训练图像集和所述待分类图像集属于同一场景集。现有的图像分类方法只考虑图像空间,也即二维空间的信息,本公开考虑了深度信息,将原来在二维空间中难以区分的特征在深度维度上予以分开,从而提高了图像分类的准确性。
-
-
-
-
-
-
-
-
-