-
公开(公告)号:CN102945373A
公开(公告)日:2013-02-27
申请号:CN201210408367.8
申请日:2012-10-24
Applicant: 中国科学院自动化研究所
IPC: G06K9/62
Abstract: 一种基于上下文的局部空间信息建模方法,包括步骤:在提取每个图像的局部特征后,提取相应的上下文特征;根据每个局部特征对应的视觉单词,从测试图像中随机提取局部特征分组;利用聚类算法,在各组局部特征对应的上下文特征集合上训练得到多组上下文模式;根据局部特征对应的不同上下文模式进行聚集操作,将聚集结果串联得到图像的最终表达。本发明对于未经过对齐处理的图像,依然能够有效地处理其空间信息。在实际应用中,将该方法与现有的考虑绝对空间关系的方法相结合,还能够进一步提升图像分类精度。
-
公开(公告)号:CN118135660B
公开(公告)日:2025-05-16
申请号:CN202410326444.8
申请日:2024-03-21
Applicant: 山东大学 , 山东科技大学 , 中国科学院自动化研究所 , 银河水滴科技(江苏)有限公司 , 泰华智慧产业集团股份有限公司
IPC: G06V40/20 , G06V10/80 , G06V10/42 , G06V10/82 , G06N3/0464 , G06V10/764
Abstract: 本发明涉及一种视角缺失条件下的联合多视角信息瓶颈的跨视角步态识别方法,包括:(1)构建特征提取模型的网络架构,并进行训练;包括:跨视角全局提取模块构建;跨视角一致性提取模块构建;自适应选择性特征融合模块构建;整体框架训练;(2)跨视角步态识别;包括:将查询数据集的步态轮廓序列送入训练好的视角缺失条件下的联合多视角信息瓶颈的跨视角步态识别模型中提取步态特征,通过与注册数据集进行特征相似性比对,完成查询样本的身份识别。本发明使网络可以更有效地捕捉输入数据中的关键信息,从而提高整个网络在处理不同输入分布情境下的表达能力。
-
公开(公告)号:CN118135660A
公开(公告)日:2024-06-04
申请号:CN202410326444.8
申请日:2024-03-21
Applicant: 山东大学 , 山东科技大学 , 中国科学院自动化研究所 , 银河水滴科技(江苏)有限公司 , 泰华智慧产业集团股份有限公司
IPC: G06V40/20 , G06V10/80 , G06V10/42 , G06V10/82 , G06N3/0464 , G06V10/764
Abstract: 本发明涉及一种视角缺失条件下的联合多视角信息瓶颈的跨视角步态识别方法,包括:(1)构建特征提取模型的网络架构,并进行训练;包括:跨视角全局提取模块构建;跨视角一致性提取模块构建;自适应选择性特征融合模块构建;整体框架训练;(2)跨视角步态识别;包括:将查询数据集的步态轮廓序列送入训练好的视角缺失条件下的联合多视角信息瓶颈的跨视角步态识别模型中提取步态特征,通过与注册数据集进行特征相似性比对,完成查询样本的身份识别。本发明使网络可以更有效地捕捉输入数据中的关键信息,从而提高整个网络在处理不同输入分布情境下的表达能力。
-
公开(公告)号:CN116704611A
公开(公告)日:2023-09-05
申请号:CN202310711767.4
申请日:2023-06-15
Applicant: 山东大学深圳研究院 , 山东大学 , 中国科学院自动化研究所 , 山东建筑大学 , 山东科技大学 , 银河水滴科技(北京)有限公司 , 泰华智慧产业集团股份有限公司
Abstract: 本发明涉及一种基于运动特征混合和细粒度多阶段特征提取的跨视角步态识别方法,包括:骨干网络构建:提取基础步态的浅层、中层、深层特征;运动特征混合模块构建:融合相邻帧之间的步态信息,提取时序信息;细粒度多阶段特征提取模块构建:对特征进行水平划分提取初步的空间特征。并引入一个分支进行进一步水平划分,加入空间注意力机制,提取更加细粒度的特征;整体框架训练;跨视角步态识别。本发明能够有效利用步态轮廓序列中的帧级时间信息,以及细粒度的空间信息,在特征提取方面更加有效。
-
公开(公告)号:CN105205453B
公开(公告)日:2019-01-08
申请号:CN201510537480.X
申请日:2015-08-28
Applicant: 中国科学院自动化研究所
Abstract: 本发明公开了一种用于人眼检测和定位的方法,包括:对带有标定好的人眼矩形框位置的训练集中的所有图像,利用人眼矩形框位置生成二值化的标签图;在图像上随机取小图像块,无监督地分层训练多个自编码器以构建深度自编码器,并利用自编码器中各层的权重对深度自编码器进行初始化;在原图像和标签图的相同位置上随机取小原图像块和小标签图像块,以小标签图像块作为监督信息,以小原图像块为输入,优化深度自编码器;在待测图像上以滑动窗口的方式生成多个小待测图像块,利用深度自编码器得到每个小待测图像块的小待测标签图像块并将其合并在一起,得到待测图像的待测标签图,对待测标签图进行二值化,利用坐标投影或寻找轮廓得到人眼的位置。
-
公开(公告)号:CN109002789A
公开(公告)日:2018-12-14
申请号:CN201810751107.8
申请日:2018-07-10
Applicant: 银河水滴科技(北京)有限公司 , 中国科学院自动化研究所
Abstract: 本发明提出的一种应用于摄像头的人脸识别方法,通过智能终端直接向摄像头发送待识别人脸图像,由摄像头自主完成人脸识别,无需将摄像头采集的视频/图片信息传回服务器,提高了人脸识别的实时性;且可以通过移动终端同时控制多台摄像头进行人脸识别,灵活性好,且无需人主动配合,实现远距离、低配合度的识别。
-
公开(公告)号:CN106557776A
公开(公告)日:2017-04-05
申请号:CN201610633375.0
申请日:2016-08-04
Applicant: 三星电子株式会社 , 中国科学院自动化研究所
CPC classification number: G06T7/11 , G06T7/143 , G06T7/194 , G06T2207/10024 , G06T2207/20081 , G06T2207/20084 , G06T2207/30004 , G06T2207/30024 , G06T2207/30041 , G06T2207/30088 , G06T2207/30201 , G06T2207/30236 , G06K9/6267 , G06K9/342 , G06K9/6201
Abstract: 一种从图像分割对象的设备和方法。一种从图像分割对象的方法包括:接收包括对象的输入图像;使用图像模型从输入图像生成对应于对象的输出图像;以及从输出图像提取对象图像。
-
公开(公告)号:CN104067314A
公开(公告)日:2014-09-24
申请号:CN201480000254.1
申请日:2014-05-23
Applicant: 中国科学院自动化研究所
IPC: G06T7/00
CPC classification number: G06T7/11 , G06K9/00369 , G06K9/46 , G06K9/4628 , G06K9/4642 , G06K9/6277 , G06K9/66 , G06K9/6857 , G06N3/08 , G06T7/143 , G06T2207/20016 , G06T2207/20021 , G06T2207/20076 , G06T2207/20081 , G06T2207/20084 , G06T2207/30196
Abstract: 本发明涉及一种人形图像分割方法,方法包括:对训练人形图像的所有第一像素点,提取多尺度上下文信息;将所有第一像素点的所有尺度的图像块送入同一个卷积神经网络,形成多通道的卷积神经网络群,每一个通道对应一个尺度的图像块;采用反向传播算法来训练神经网络群,得到人形图像分割训练模型数据;对测试人形图像的所有第二像素点,提取多尺度上下文信息;每一个第二像素点的不同尺度的图像块送入与人形图像分割训练模型相对应的神经网络通道,如果第一概率大于第二概率,则第二像素点属于人形区域内,反之则第二像素点属于人形区域外。本发明人形图像分割方法,图像分割速度快,精确度高。
-
公开(公告)号:CN103279581A
公开(公告)日:2013-09-04
申请号:CN201310255896.3
申请日:2013-06-25
Applicant: 中国科学院自动化研究所
IPC: G06F17/30
Abstract: 本发明公开了一种利用基于无向主题模型的紧凑视频主题描述子进行视频检索的方法,该方法包括以下步骤:提取视频局部特征并用聚类算法得到视频的词袋(BoW)特征;利用视频词袋特征训练有稀疏约束的非负无向主题模型来学习视频的主题特征;用训练好的主题模型推断视频的主题描述子,通过计算描述子之间的余弦距离来检索视频。本发明方法能够从高维的视频词袋特征中提取出低维并且稀疏的视频主题描述,从而大大提高了在大规模数据库以及带宽受限的移动搜索系统中的检索效率;同时该方法所训练的主题模型能够很好的挖掘视频的主题特征结构,因此提取出的主题描述子即使在维数很低的情况下仍然具有比原始的高维词袋特征更高的检索精确度。
-
公开(公告)号:CN103258216A
公开(公告)日:2013-08-21
申请号:CN201310180015.6
申请日:2013-05-15
Applicant: 中国科学院自动化研究所
IPC: G06K9/66
Abstract: 本发明公开了一种基于在线学习的局部可形变目标检测方法及其系统。该方法包括:步骤1、利用训练集中的样本图像对局部可形变目标检测模型进行训练,得到初步训练后的局部可形变目标检测模型;步骤2、利用所述局部可形变目标检测模型对待测图像进行目标检测,并利用GUI标注在线学习方法对已有的局部可形变目标检测模型进行更新优化。本发明的上述方法将整个耗时的训练过程分布在每次目标检测之中,同时模型可以实时更新,局部可形变检测模型鲁棒性会进一步得到提升,且对内存需求量不大。根据本发明的上述方法,在大数据背景下,可以快速有效地处理用于目标检测的数据。
-
-
-
-
-
-
-
-
-