-
公开(公告)号:CN103530689A
公开(公告)日:2014-01-22
申请号:CN201310530626.9
申请日:2013-10-31
Applicant: 中国科学院自动化研究所
Abstract: 本发明公开了一种基于深度学习的聚类方法,该方法包括以下步骤:得到深度神经网络的初始网络权重;对样本进行随机分组并映射到特征空间;将原始深度神经网络的目标函数加入特征层的类内约束函数;更新深度神经网络的网络权重,计算得到新的特征层;将每个样本分配至最近聚类中心所在的类组,计算新的聚类中心;以新的聚类中心代替类内约束函数的聚类中心,返回网络权重更新步骤进行迭代,得到并输出最终聚类分组结果。本发明将样本从不易聚类的原始数据空间,通过深度神经网络的非线性映射,得到高度可分的特征用于聚类,并且可以不断优化网络结构得到更好的聚类效果,本发明以较小的内存消耗以及较高的聚类精度优于常规聚类算法。
-
公开(公告)号:CN103049526A
公开(公告)日:2013-04-17
申请号:CN201210559081.X
申请日:2012-12-20
Applicant: 中国科学院自动化研究所
IPC: G06F17/30
Abstract: 本发明公开了一种基于双空间学习的跨媒体检索方法。该方法包括:首先提取不同模态的多媒体数据的特征,利用双空间学习方法学习得到两个映射矩阵,将不同模态的数据映射到同一个空间;对于测试样本集,将其分为两部分:查询数据集和目标数据集,使用学习得到的映射矩阵将两个数据集的数据映射到统一空间,然后度量查询数据和目标数据之间的距离,并得到与查询数据距离最近的目标数据。本发明可以将不同模态的多媒体数据映射入统一空间进行度量,且在映射的同时进行了特征选择,提高了检索的鲁棒性和准确性,具有良好的运用前景。
-
公开(公告)号:CN101226638A
公开(公告)日:2008-07-23
申请号:CN200710062825.6
申请日:2007-01-18
Applicant: 中国科学院自动化研究所
Abstract: 本发明公开一种多相机系统标定方法包括:由三个或三个以上几何信息已知的标志点构成的标定部件在多相机系统工作区域做刚体运动,获取标定部件的多幅图像输入到计算机,提取出标志点的图像坐标,并将不同相机拍摄的某一位姿下标定部件上同一标志点的图像点视为一组对应点,根据图像对应点和标志点蕴含的几何信息线性恢复出多相机系统中各个相机的投影变换矩阵,并利用非线性算法进行优化。本发明公开的装置包括:标定部件、手柄、操作系统、工作区域、多相机系统。本发明克服了现有标定方法需要对多相机系统中的相机逐个标定或分步标定存在的效率低、有较大累积误差等缺点,本发明实现了多相机系统整体的一次性标定,具有重要的工程实用价值。
-
公开(公告)号:CN1168044C
公开(公告)日:2004-09-22
申请号:CN01144157.7
申请日:2001-12-13
Applicant: 中国科学院自动化研究所
CPC classification number: G06K9/00348
Abstract: 一种基于步态的远距离身份识别方法,包括训练和识别两个过程,所述的训练过程包括步骤:获取训练步态序列;空间轮廓分割;形状距离信号提取;主成分分析;个性化体格特征提取,提取可视的个性化特征作为附加特征,用于步态分类的最终校验;获得已训练的步态数据库。利用统计主元分析方法,本发明实现了一个基于步态行为的远距离身份识别系统。改进的背景减除方法被提出用于从背景中提取步态运动;具有时空变化的运动轮廓经过特征空间变换来实现步态特征的提取;识别过程采用时空相关匹配或者最近邻规则,一些与个人形体和体格有关的个性化特征亦被选择用于最终判决的校验。
-
公开(公告)号:CN119378644A
公开(公告)日:2025-01-28
申请号:CN202411229642.9
申请日:2024-09-03
Applicant: 中国科学院自动化研究所
Abstract: 本发明提供一种基于CTTA框架的自动驾驶模型更新方法及装置,所述方法包括:基于贝叶斯神经网络结构和自动驾驶源数据构建自动驾驶模型;基于所述自动驾驶模型构建变分式平均教师模型,所述变分式平均教师模型包括学生模型和教师模型;基于变分推断更新所述学生模型,并基于指数移动平均方法更新所述教师模型。本发明提供的基于CTTA框架的自动驾驶模型更新方法及装置,构建了一种快速贝叶斯模型构建方法,将预先训练好的确定性CNN模型转换为BNN。同时构建了一种变分式平均教师结构,不仅能在分布变化下提高预测准确性,还能提供可靠的不确定性估计。
-
公开(公告)号:CN116704612B
公开(公告)日:2024-10-22
申请号:CN202310711768.9
申请日:2023-06-15
Applicant: 山东大学深圳研究院 , 山东大学 , 中国科学院自动化研究所 , 山东建筑大学 , 山东科技大学 , 银河水滴科技(北京)有限公司 , 泰华智慧产业集团股份有限公司
Abstract: 本发明涉及一种基于对抗域自适应学习的跨视角步态识别方法,包括:(1)构建整个基于对抗域自适应学习的网络并进行训练:步态轮廓预处理;步态视角级子域划分;构建嵌有层次特征聚合策略的特征提取器;构建视角变化对抗消除模块;构建度量学习模块;整个基于对抗域自适应学习的网络对抗训练;(2)跨视角步态识别:将待识别身份的步态轮廓序列送入训练好的嵌有层次特征聚合策略的特征提取器获取步态特征,与注册数据集进行特征相似性比对,完成待测样本的身份识别。本发明能够充分挖掘步态序列中时空信息的同时有效消除视角变化的干扰;本发明实现了对步态轮廓序列更为充分、综合的时空特征提取;有效增强了网络判别性步态特征提取的能力。
-
公开(公告)号:CN114972038B
公开(公告)日:2024-09-03
申请号:CN202210699194.3
申请日:2022-06-20
Applicant: 中国科学院自动化研究所 , 北京三星通信技术研究有限公司
IPC: G06T3/4053 , G06T3/4046 , G06T5/20 , G06N3/0464 , G06N3/084 , G06N3/09 , G06N3/0985
Abstract: 本发明属于模式识别与机器学习领域,具体涉及了一种基于相关性动态滤波的端到端多帧超分辨方法及系统,旨在解决现有多帧超分辨依赖光流场信息进行多帧图像的空间对齐,计算复杂、超分辨效果达不到预期的问题。本发明包括:通过特征提取器提取不同图像帧的特征,计算目标帧每个像素点与支撑帧上对应点周围像素点的特征之间的相关性,获得目标帧和每一个支撑帧的特征之间的相关性矩阵;通过滤波器计算每一个支撑帧的特征的滤波核,并进行对应的支撑帧的动态滤波;通过解码器融合目标帧和滤波后的支撑帧的特征,获得超分辨图像。本发明不依赖光流场信息进行多帧图像的空间对齐,更加轻量和稳定,可以以较小的参数量和计算量取得更优的性能。
-
公开(公告)号:CN113591546B
公开(公告)日:2023-11-03
申请号:CN202110653956.1
申请日:2021-06-11
Applicant: 中国科学院自动化研究所
IPC: G06V30/40 , G06V10/82 , G06N3/0455 , G06N3/044 , G06N3/0442
Abstract: 本发明提供一种语义增强型场景文本识别方法及装置,通过场景文本识别模型的编码器提取场景文本图像的视觉特征图以及上下文特征序列,并基于视觉特征图、上下文特征序列以及特征图的位置编码确定增强型特征表达,获取场景文本图像全局的视觉信息和语义信息,解码器采用特殊设计的循环神经网络单元进行解码,该单元能够均衡上下文信息的独立性和相关性。将隐含状态向量和展开后的增强型特征表达进行多头注意力运算,得到局部表观特征向量。局部表观特征向量与循环神经网络单元的隐层输出共同参与当前时刻的字符预测,增强了语义信息和视觉信息的相关性。多头注意力机制设计能够捕捉特征的显著性信息和辅助信息,使得场景文本识别结果准确率较高。
-
公开(公告)号:CN115796282A
公开(公告)日:2023-03-14
申请号:CN202211494136.3
申请日:2022-11-25
Applicant: 中国科学院自动化研究所
IPC: G06N5/04 , G06F40/216 , G06F40/289 , G06F40/30 , G06F16/35 , G06N3/0464 , G06N3/048 , G06N3/047 , G06N3/084
Abstract: 本申请提供一种用户属性推断模型的训练方法、推断方法和电子设备,涉及人工智能和深度学习技术领域。该方法包括:获取多个用户各自的推文内容样本,以及各用户对应的属性标签;基于多个用户各自的推文内容样本,构建多个用户对应的用户关系图;分别对多个用户各自的推文内容样本进行编码,得到多个用户各自对应的初始编码特征;将多个用户各自对应的初始编码特征和用户关系图输入至初始用户属性推断模型中,得到各用户对应的预测属性;根据各用户对应的预测属性和属性标签,对初始用户属性推断模型进行更新,以得到训练后的用户属性推断模型,解决了现有技术中如何对未知用户属性进行推断的问题,且提高了推断结果的准确度。
-
公开(公告)号:CN111783711B
公开(公告)日:2022-11-08
申请号:CN202010658060.8
申请日:2020-07-09
Applicant: 中国科学院自动化研究所
Abstract: 本发明涉及计算机视觉技术领域,具体涉及一种基于身体部件层面的骨架行为识别方法及装置。为了解决现有技术行为识别的准确率较低,无法满足实际使用过程的需要的问题,本发明提出一种基于身体部件层面的骨架行为识别方法及装置,该方法包括获取待识别视频中目标对象的第一骨架三维坐标,其中,第一骨架三维坐标包括第一差值三维坐标、第一相对三维坐标以及第一关节点三维坐标;基于第一骨架三维坐标,通过预先训练好的骨架行为识别模型,确定目标对象处于多个预设骨架行为类型的概率;将概率大于预设阈值的预设骨架行为类型作为目标对象对应的骨架行为类型。利用本发明的方法能够有效提高行为识别准确率。
-
-
-
-
-
-
-
-
-