-
公开(公告)号:CN110782019A
公开(公告)日:2020-02-11
申请号:CN201911029615.6
申请日:2019-10-28
Applicant: 中国科学院自动化研究所
IPC: G06N3/04
Abstract: 本发明属于人工智能领域,具体涉及一种基于分解和剪枝的卷积神经网络压缩方法、系统、装置,旨在解决采用低秩近似分解或结构化稀疏剪枝进行卷积神经网络压缩,导致压缩力度较小的问题。本系统方法包括将每个待压缩的卷积层后面添加一层系数矩阵表示层;通过低秩近似分解算法对系数矩阵表示层进行稀疏处理,并根据系数矩阵表示层稀疏的位置对对应的卷积层的滤波器进行剪枝处理;采用结构化稀疏剪枝方法对分解后的系数矩阵表示层进行稀疏处理,并根据系数矩阵表示层稀疏的位置对其滤波器进行剪枝处理;对稀疏剪枝处理后的卷积神经网络进行训练。本发明通过将低秩近似分解和结构化稀疏剪枝两种方法融合,解决了单一方法引起的缺陷,提高了压缩力度。
-
公开(公告)号:CN110215216A
公开(公告)日:2019-09-10
申请号:CN201910500528.8
申请日:2019-06-11
Applicant: 中国科学院自动化研究所
IPC: A61B5/11
Abstract: 本发明属于计算机视觉领域,具体涉及一种基于骨骼关节点分区域分层次的行为识别方法、系统、装置,旨在为了解决有效提高行为识别准确率同时减少网络层数的问题。本发明方法包括:获取输入视频的各帧图像,从各帧图像中分别提取骨骼关节点;对每一帧图像,将其中所提取的所述骨骼关节点划分至所划分的各人体区域,并通过图卷积操作获取对应的特征表示,得到第一层特征表示集;对每一帧图像,按照所述各人体区域,基于所述第一层特征表示,通过池化、图卷积方法逐层减少关节点数量,直至通过多层聚合得到一个特征向量,并将该特征向量输入到两个全连接层得到行为类别。本发明提高了行为识别的准确率,加快了训练速度与检测速度。
-
公开(公告)号:CN103942191B
公开(公告)日:2018-04-27
申请号:CN201410171360.8
申请日:2014-04-25
Applicant: 中国科学院自动化研究所
IPC: G06F17/27
Abstract: 本发明公开了一种基于内容的恐怖文本识别方法,该方法包括:首先,对需要识别的文本进行预处理,以消除错误数据和冗余数据对识别结果的消极影响;其次,构建基于内容的文本分类器模型,该模型能够分别利用文本标题分类器和文本内容分类器对文本标题和文本内容进行独立识别,然后将两种识别结果进行决策融合,最终得出识别结果;最后,将格式化后的待识别文本数据作为基于文本分类器模型的输入,该模型的输出即为文本的识别结果。该方法在实验数据库上能够取得良好的实验效果,其识别结果具有较高的可靠性和稳定性。
-
公开(公告)号:CN103631932B
公开(公告)日:2017-03-01
申请号:CN201310655669.X
申请日:2013-12-06
Applicant: 中国科学院自动化研究所
IPC: G06F17/30
Abstract: 本发明公开了一种对重复视频进行检测的方法,该方法包括以下步骤:对数据库中的所有视频进行帧采样,提取每个视频的关键帧,以获取相应视频的关键信息;对提取得到的视频关键帧的局部特征和全局特征分别进行分析得到局部分析特征和全局分析特征;对局部分析特征和全局分析特征进行融合,得到一个对于视频变换鲁棒的索引特征,用于进行视频重复性检测;利用索引特征对于待检测视频进行重复视频的检测。利用本发明,可以快速高效的检测出重复视频。
-
公开(公告)号:CN103413125B
公开(公告)日:2016-08-17
申请号:CN201310376064.7
申请日:2013-08-26
Applicant: 中国科学院自动化研究所
Abstract: 本发明公开一种基于判别性示例选择多示例学习的恐怖视频识别方法。该方法包括:提取训练视频集中每个视频的视频镜头,针对每个视频镜头选取情感代表帧和情感突变帧表示该镜头;提取对每个镜头的音频和视频特征作为视频示例,组成视频示例集合;从所述视频示例集合中选择出判别性视频示例;计算训练视频集合中每个视频示例与所述判别性视频示例之间的相似性距离,得到特征向量集合;将待识别视频的特征向量与训练视频集合对应的特征向量集合进行稀疏重构,根据重构误差识别视频的类别。本发明提出了一种新的基于判别性示例选择的多示例学习模型应用到恐怖电影场景识别中,该技术具有重要的学术意义和社会意义,并具有广阔的应用前景。
-
公开(公告)号:CN105260398A
公开(公告)日:2016-01-20
申请号:CN201510592018.X
申请日:2015-09-17
Applicant: 中国科学院自动化研究所
CPC classification number: G06F17/30781 , G06F17/30705 , G06K9/4652 , G06K9/6269
Abstract: 本发明公开了一种基于海报与剧情介绍的电影类型的快速分类方法,该方法包括:确定电影所属的类型集合,建立各种类型的电影的海报训练集和剧情介绍的训练集;提取待测电影的海报的特征,利用得到的每幅海报的特征及其对应的标签训练支持向量机得到海报的分类模型;提取待测电影的剧情介绍的文本的特征,利用得到的每个文本的特征及其对应的标签训练支持向量机得到文本的分类模型;用海报的分类模型,对待测的电影的海报进行预测得到结果Y1,然后再调用文本的分类模型对待测电影的剧情介绍进行预测得到结果Y2;最后将Y1和Y2进行“或“操作,得到最后的待测电影的类型。本发明能够在没有电影视频的情况下,对电影的类型实现快速、高准确率的预测。
-
公开(公告)号:CN103942191A
公开(公告)日:2014-07-23
申请号:CN201410171360.8
申请日:2014-04-25
Applicant: 中国科学院自动化研究所
IPC: G06F17/27
Abstract: 本发明公开了一种基于内容的恐怖文本识别方法,该方法包括:首先,对需要识别的文本进行预处理,以消除错误数据和冗余数据对识别结果的消极影响;其次,构建基于内容的文本分类器模型,该模型能够分别利用文本标题分类器和文本内容分类器对文本标题和文本内容进行独立识别,然后将两种识别结果进行决策融合,最终得出识别结果;最后,将格式化后的待识别文本数据作为基于文本分类器模型的输入,该模型的输出即为文本的识别结果。该方法在实验数据库上能够取得良好的实验效果,其识别结果具有较高的可靠性和稳定性。
-
公开(公告)号:CN103854014A
公开(公告)日:2014-06-11
申请号:CN201410065197.7
申请日:2014-02-25
Applicant: 中国科学院自动化研究所
IPC: G06K9/00
Abstract: 本发明公开了一种基于上下文稀疏表示的恐怖视频识别方法及装置,该方法包括:对训练视频样本进行镜头分割,然后针对每个镜头选取一幅关键帧来代表该镜头;提取每个关键帧的视觉特征,并提取整个训练视频样本的音频特征;建立起每一个训练视频样本内部各个关键帧之间的上下文关系图;提取待识别视频的视觉特征、音频特征;构建待识别视频与训练视频样本之间的代价矩阵;基于上下文稀疏表示模型,利用所有训练视频样本对所述待识别视频进行重构,重构误差最小的训练视频样本的类别即为待识别视频的类别;其中所述上下文稀疏表示模块以所述训练视频样本的上下文关系图作为稀疏表示的词典,并利用所述代价矩阵对其进行约束。
-
公开(公告)号:CN102509084B
公开(公告)日:2014-05-07
申请号:CN201110369289.0
申请日:2011-11-18
Applicant: 中国科学院自动化研究所
Abstract: 本发明公开了一种基于多示例学习算法的视频恐怖场景识别方法。该方法包含:对视频场景进行镜头分割和关键帧选取,视频场景对应于多示例学习的“包”,镜头对应“包”中的示例,基于镜头和关键帧分别提取视觉特征、音频特征和颜色情感特征组成特征空间,在特征空间中训练相应的多示例学习分类器;对于一个待测试的视频样本,通过结构化分析,提取相关特征,通过训练的分类器的来预测视频样本的类别:恐怖或非恐怖。本发明提出了一种新的颜色情感特征并把此特征应用到恐怖电影场景识别方法中,该方法具有广阔的应用前景。
-
公开(公告)号:CN103336957A
公开(公告)日:2013-10-02
申请号:CN201310303194.8
申请日:2013-07-18
Applicant: 中国科学院自动化研究所
Abstract: 本发明公开了一种基于时空特征的网络同源视频检测方法,该方法包括以下步骤:步骤1:对输入的待检测视频进行预处理,从而去除低信息帧或异常帧,并进行图中图检测;步骤2:将至少一个参考视频与预处理后的待检测视频进行视频片段分割,得到一系列的视频片段,每个视频片段由相等数目的连续帧组成;步骤3:分别对上述所有的视频片段提取时空特征数据;步骤4:采用局部敏感哈希方法对上述得到的时空特征数据进行有效索引以及搜索,从而匹配得到相似视频片段,并输出最终同源视频的信息。
-
-
-
-
-
-
-
-
-