一种基于互正则化约束子空间表达的多视角数据聚类方法

    公开(公告)号:CN103617292B

    公开(公告)日:2017-02-22

    申请号:CN201310687876.3

    申请日:2013-12-16

    Abstract: 本发明公开了一种基于互正则化约束子空间表达的多视角数据聚类方法,该方法包括以下步骤:组成多视角数据库,提取不同视角数据的视角特征;选择互正则化方法,确定互正则化约束;基于一优化目标函数和不同视角数据的视角特征,得到所有样本的协同表示向量;将协同表示向量按照其所对应的样本顺序排序,得到子空间表达矩阵;对子空间表达矩阵进行处理,得到亲和矩阵;根据需要聚类的数目分割亲和矩阵,得到多视角数据库的样本聚类结果。本发明利用子空间表达来挖掘样本之间的隐含结构信息,采用两种互正则化方式来约束不同视角的子空间表达,以利用多视角的互补信息,进一步加强样本集隐含结构信息的表示,从而能够广泛的应用于多视角数据聚类。

    基于判别式多模态深度置信网多模态数据融合方法和系统

    公开(公告)号:CN103838836B

    公开(公告)日:2016-09-28

    申请号:CN201410064933.7

    申请日:2014-02-25

    Abstract: 本发明公开了一种基于判别式多模态深度置信网的多模态数据融合方法,该方法包括以下步骤:建立判别式多模态深度置信网;对于多个模态数据对应的深度置信网,利用限制波尔兹曼机,获得深度置信网优化后的网络权重;采用交替优化的策略来最小化判别式多模态玻尔兹曼机的目标函数,获得优化后的玻尔兹曼机权重,得到最终的判别式多模态深度置信网模型;向深度置信网模型输入待融合的多模态数据,得到融合结果。本发明还公开了一种基于判别式多模态深度置信网的多模态数据融合系统。本发明通过在传统多模态深度置信网络中引入有监督的标签信息,判别式的挖掘不同模态数据之间的关联性,从而在大规模多模态数据分类和检索任务中可以保证较高的准确率。

    基于判别式多模态深度置信网多模态数据融合方法和系统

    公开(公告)号:CN103838836A

    公开(公告)日:2014-06-04

    申请号:CN201410064933.7

    申请日:2014-02-25

    CPC classification number: G06F17/30533

    Abstract: 本发明公开了一种基于判别式多模态深度置信网的多模态数据融合方法,该方法包括以下步骤:建立判别式多模态深度置信网;对于多个模态数据对应的深度置信网,利用限制波尔兹曼机,获得深度置信网优化后的网络权重;采用交替优化的策略来最小化判别式多模态玻尔兹曼机的目标函数,获得优化后的玻尔兹曼机权重,得到最终的判别式多模态深度置信网模型;向深度置信网模型输入待融合的多模态数据,得到融合结果。本发明还公开了一种基于判别式多模态深度置信网的多模态数据融合系统。本发明通过在传统多模态深度置信网络中引入有监督的标签信息,判别式的挖掘不同模态数据之间的关联性,从而在大规模多模态数据分类和检索任务中可以保证较高的准确率。

    一种基于时序数据的推荐系统攻击检测算法

    公开(公告)号:CN103678709A

    公开(公告)日:2014-03-26

    申请号:CN201310746814.5

    申请日:2013-12-30

    Inventor: 王亮 吴书 王保兴

    CPC classification number: G06F17/30867 G06F17/30702

    Abstract: 本发明公开了一种基于时序数据的推荐系统攻击检测方法,包括:利用用户-项目偏好程度数据集和频繁项集挖掘技术,得到用户组和项目组;为每对用户组和项目组计算组偏好程度值比例特征;将项目组中各项目的所有偏好程度按操作时间形成时序的偏好程度数据;为每对的用户组和项目组计算组偏好程度时间间隔特征;为用户组计算组平均熵特征;为每一用户组,选择其对应最大的组偏好程度值比例特征和最大的组偏好程度时间间隔特征,并依次利用上述三种特征对用户组进行排序,得到三个有序的用户组序列;综合所述三个有序的用户组序列,得到一个整体有序的用户组序列,从而得到最可能的攻击用户组;通过组偏好程度值比例特征得到最有可能的目标项目组。

    一种基于互正则化约束子空间表达的多视角数据聚类方法

    公开(公告)号:CN103617292A

    公开(公告)日:2014-03-05

    申请号:CN201310687876.3

    申请日:2013-12-16

    CPC classification number: G06F17/30598 G06K9/6218

    Abstract: 本发明公开了一种基于互正则化约束子空间表达的多视角数据聚类方法,该方法包括以下步骤:组成多视角数据库,提取不同视角数据的视角特征;选择互正则化方法,确定互正则化约束;基于一优化目标函数和不同视角数据的视角特征,得到所有样本的协同表示向量;将协同表示向量按照其所对应的样本顺序排序,得到子空间表达矩阵;对子空间表达矩阵进行处理,得到亲和矩阵;根据需要聚类的数目分割亲和矩阵,得到多视角数据库的样本聚类结果。本发明利用子空间表达来挖掘样本之间的隐含结构信息,采用两种互正则化方式来约束不同视角的子空间表达,以利用多视角的互补信息,进一步加强样本集隐含结构信息的表示,从而能够广泛的应用于多视角数据聚类。

    一种基于结构先验知识的鲁棒生物特征识别方法

    公开(公告)号:CN103440504A

    公开(公告)日:2013-12-11

    申请号:CN201310418307.9

    申请日:2013-09-13

    Abstract: 本发明公开了一种基于结构先验知识的鲁棒生物特征识别方法,该方法包括:收集图像数据形成训练样本集和测试样本集;提取所述训练样本集中每个训练样本的特征向量,并将提取得到的特征向量组成字典矩阵X;基于所述字典矩阵X,通过优化算法计算得到与所述测试样本集中的每一测试样本对应的重构系数向量;基于所述字典矩阵X,使用与所述测试样本集中的每一测试样本对应的重构系数向量进行样本重构,得到与每一测试样本对应的分属于不同类别的重构测试样本,与相应测试样本最为接近的重构训练样本的类别即为所述测试样本的类别。本发明可以用在人脸识别等生物特征识别领域,能够有效处理存在遮挡噪声情况下的识别分类问题。

    一种利用紧凑视频主题描述子进行视频检索的方法

    公开(公告)号:CN103279581A

    公开(公告)日:2013-09-04

    申请号:CN201310255896.3

    申请日:2013-06-25

    Abstract: 本发明公开了一种利用基于无向主题模型的紧凑视频主题描述子进行视频检索的方法,该方法包括以下步骤:提取视频局部特征并用聚类算法得到视频的词袋(BoW)特征;利用视频词袋特征训练有稀疏约束的非负无向主题模型来学习视频的主题特征;用训练好的主题模型推断视频的主题描述子,通过计算描述子之间的余弦距离来检索视频。本发明方法能够从高维的视频词袋特征中提取出低维并且稀疏的视频主题描述,从而大大提高了在大规模数据库以及带宽受限的移动搜索系统中的检索效率;同时该方法所训练的主题模型能够很好的挖掘视频的主题特征结构,因此提取出的主题描述子即使在维数很低的情况下仍然具有比原始的高维词袋特征更高的检索精确度。

    一种基于在线学习的局部可形变目标检测方法及其系统

    公开(公告)号:CN103258216A

    公开(公告)日:2013-08-21

    申请号:CN201310180015.6

    申请日:2013-05-15

    Inventor: 王亮 黄永祯 唐微

    Abstract: 本发明公开了一种基于在线学习的局部可形变目标检测方法及其系统。该方法包括:步骤1、利用训练集中的样本图像对局部可形变目标检测模型进行训练,得到初步训练后的局部可形变目标检测模型;步骤2、利用所述局部可形变目标检测模型对待测图像进行目标检测,并利用GUI标注在线学习方法对已有的局部可形变目标检测模型进行更新优化。本发明的上述方法将整个耗时的训练过程分布在每次目标检测之中,同时模型可以实时更新,局部可形变检测模型鲁棒性会进一步得到提升,且对内存需求量不大。根据本发明的上述方法,在大数据背景下,可以快速有效地处理用于目标检测的数据。

    一种基于空间共聚集的图像分类方法

    公开(公告)号:CN103034871A

    公开(公告)日:2013-04-10

    申请号:CN201210560743.5

    申请日:2012-12-20

    Inventor: 王亮 黄永祯 刘锋

    Abstract: 本发明公开了一种基于空间共聚集的图像分类方法。在该方法中,首先,提取局部特征并用聚类算法得到视觉词典;然后,用编码算法对特征进行编码,将不同空间区域的特征聚集并串联到一起;最后,用通用的特征选择方法进行特征选择,并用选择的特征作为图像的表达以训练分类器用于对图像进行分类。本发明方法从不同空间区域组合的表达中选择最有区分力,更加鲁棒的特征作为图片的表达,从而可以反映特征在给定类别图片中的空间分布和共生信息。本发明方法能以极少的特征数量达到分类精度优于常规算法的效果。

Patent Agency Ranking