-
公开(公告)号:CN113901880A
公开(公告)日:2022-01-07
申请号:CN202111069905.0
申请日:2021-09-13
Applicant: 中国科学院自动化研究所
Abstract: 本发明提供一种实时事件流识别方法及系统,包括:确定待识别个体事件;将所述待识别个体事件输入至预先训练好的事件流检测模型,得到个体事件识别结果;其中,所述事件流检测模型是基于不同个体事件样本数据特征进行融合得到融合特征后,将所述融合特征进行边界匹配,并基于个体自适应元学习进行分类识别后所得到。本发明通过对健康实时事件进行识别时,采用模型无关的元学习策略对事件流检测模型进行优化,实现了以最低代价得到具有个体自适应的检测模型,大大提高模型的泛化能力。
-
公开(公告)号:CN103440352B
公开(公告)日:2017-04-19
申请号:CN201310438984.7
申请日:2013-09-24
Applicant: 中国科学院自动化研究所
IPC: G06F17/30
Abstract: 本发明公开了一种社交媒体网络中对象间的关联分析方法及装置,在很多重要的相关领域已经有了广泛的应用。该方法包括:步骤1、提取对象的底层特征;步骤2、对所提取的底层特征通过深度网络进行高层语义学习,得到对象的高层特征;步骤3、通过对象的高层特征获得对象间的关联关系。该方法中首先从对象的内容信息中学习出高层的抽象特征,然后在这些高层的特征的基础上来进行关联建模。本方法引入隐式特征的概念,在生成式模型的框架下,一方面隐式特征生成对象的内容信息(高层特征),另一方面,对象的隐式特征之间的交互以最大概率对象之间的关联信息。本方法采用蒙特卡洛近似推断算法来推断模型的参数及隐变量。
-
公开(公告)号:CN103324686B
公开(公告)日:2016-12-28
申请号:CN201310217181.9
申请日:2013-06-03
Applicant: 中国科学院自动化研究所
IPC: G06F17/30
Abstract: 本发明基于文本流网络的实时个性化视频推荐方法的步骤如下:S1用用户在文本流网络上当前发布和转发的推文建立实时用户文档,对多个实时用户文档建立热点事件空间,得到用户当前所关注的多个热点事件;S2用用户在文本流网络上的所有信息建立用户文档,对多个用户文档建立长期兴趣主题空间,得到多个用户分别在该空间的长期兴趣分布向量;S3用用户长期兴趣分布向量对所述多个热点事件进行排序,获得用户当前最感兴趣热点事件;S4在视频应用平台检索与用户当前最感兴趣热点事件相关的多个视频;S5用用户在视频应用平台信息,得到用户长期兴趣特征向量;S6用用户长期兴趣特征向量对所述多个视频进行重排序,并把前N个视频推荐给该
-
公开(公告)号:CN105893784A
公开(公告)日:2016-08-24
申请号:CN201610484985.9
申请日:2016-06-28
Applicant: 中国科学院自动化研究所
IPC: G06F19/00
CPC classification number: G16H10/20
Abstract: 本发明公开了一种基于图像的性格测试调查问卷生成方法和调查交互的方法。其中,性格测试调查问卷生成方法包括获取用户喜欢的图像集及所述用户的性格属性真值集合,并构建图像与用户的第一关系;进行概念提取,构建图像与概念的关系;提取图像集中各图像的图像特征,构建图像与用户的第二关系;根据图像与概念的关系和图像与用户的第二关系,确定给定用户集合下用户集共有概念集合;然后筛选出具体性格区分度的概念集合;从各概念下的图像集合里筛选具有性格代表性的图像,作为可视化问题的图像选项;通过筛选出的概念和概念下的图像选项,生成调查问卷。通过本发明实施例能够在较短时间内得到较为准确的用户性格,具有更好的跨语言性能。
-
公开(公告)号:CN106096653A
公开(公告)日:2016-11-09
申请号:CN201610409460.9
申请日:2016-06-12
Applicant: 中国科学院自动化研究所
Abstract: 本发明公开了一种基于跨平台用户社交多媒体行为的人口属性推断方法。其中,该方法包括针对所述用户在所述各平台的社交多媒体行为,提取文本特征和图片特征,得到所述各平台的用户特征;将训练集中用户的人口属性和所述用户特征作为监督信息,进行多个空间的对偶投影矩阵学习,并对所述用户的所述各平台的社交多媒体行为进行约束,以确定所述各平台的对偶投影矩阵和共享稳定的用户信息;根据所述用户特征对所述对偶投影矩阵进行投影变换,并基于投影变换结果所得到的所述共享稳定的用户信息进行所述人口属性的推断。本发明实施例解决了观察到的社交多媒体行为的动态性和相对稳定的人口属性之间的矛盾,提高了用户的人口属性推断结果的准确性。
-
公开(公告)号:CN104090971A
公开(公告)日:2014-10-08
申请号:CN201410341643.2
申请日:2014-07-17
Applicant: 中国科学院自动化研究所
IPC: G06F17/30
CPC classification number: G06F17/3089 , G06Q50/01
Abstract: 本发明是一种面向个性化应用的跨网络行为关联方法,首先确定不同网络特有的异构信息并分别对其在各自网络进行主题建模,得到相应信息的主题分布表示;然后,聚合用户在各自网络的行为信息来分别计算得到用户在不同网络的主题分布表示,并利用跨网络关联用户在不同网络上主题分布的一一对应关系分别对不同网络学习一组网络相关的用户属性因子向量;最后,通过不同网络的用户属性因子向量使不同网络信息的主题分布可以进行互相转换,达到跨网络行为信息关联的目的。本发明通过引入主题模型和用户感知,使该关联突破语义关联的局限性,在更细的粒度下进行感知。
-
公开(公告)号:CN103020221A
公开(公告)日:2013-04-03
申请号:CN201210535907.9
申请日:2012-12-12
Applicant: 中国科学院自动化研究所
IPC: G06F17/30
Abstract: 本发明公开了一种基于多模态生成式模型的自适应社会关系强度挖掘方法,是通过收集用户上传的图片信息以及与其有社会关系的用户,将每个用户对应一个由上传图像集合、图像标注集合和社会网络组成的三元组;根据输入的三元组,通过一种多模态生成式模型,将图片内容和标注的生成过程反推进行推断,得到一个可以描述用户兴趣分布的主题空间和用户的主题分布;对得到的主题空间和用户主题分布进行计算,得到用户与用户之间的主题敏感的关系强度,并用于自适应的多媒体检索等应用。
-
公开(公告)号:CN102332031A
公开(公告)日:2012-01-25
申请号:CN201110316563.8
申请日:2011-10-18
Applicant: 中国科学院自动化研究所
IPC: G06F17/30
Abstract: 本发明是一种基于视频集合层级主题结构的检索结果聚类方法,是通过扩充相关的上位词、同义词以及语义关联词,对输入的搜索句子进行查询拓展,得到一个种子词集;根据输入的搜索句子进行检索,返回一个视频集合,再对视频集合进行重复检测,得到每对视频的重复关系;对得到的视频集合的内容进行层级主题建模,通过层级主题模型挖掘视频集合中潜在的层级主题关系;利用搜索句子与父主题的对应关系,将得到的种子词集作为监督信息,利用关联监督层级主题模型对得到的视频集合内容进行建模;并将视频进行重复检测的每对视频的重复关系作为约束,通过关联监督层级主题模型进行建模,实现基于关联监督层级主题模型的主题树发现和视频聚类。
-
公开(公告)号:CN110516160A
公开(公告)日:2019-11-29
申请号:CN201910818603.5
申请日:2019-08-30
Applicant: 中国科学院自动化研究所
IPC: G06F16/9535 , G06F16/36
Abstract: 本发明属于用户建模与推荐系统领域,具体涉及一种基于知识图谱的用户建模方法、序列推荐方法,旨在为了解决现有用户建模方法无法有效提取用户动态访问信息的特征,准确捕捉用户兴趣;现有序列推荐系统推荐准确率不高,用户体验较差的问题。本发明将内容特征和结构特征作为项目的完整表示,基于用户与项目之间的语义路径获取用户和项目之间的交互表示,通过自注意力模型获取用户动态偏好。基于用户动态偏好和待预测项目,通过推荐模型得到推荐结果。本发明的用户建模方法能够有效提取用户动态访问信息的特征,引入语义路径准确的捕捉交互级别的用户动态偏好;基于知识图谱序列推荐方法提升了推荐的准确性,用户体验更好。
-
公开(公告)号:CN106096653B
公开(公告)日:2019-10-22
申请号:CN201610409460.9
申请日:2016-06-12
Applicant: 中国科学院自动化研究所
Abstract: 本发明公开了一种基于跨平台用户社交多媒体行为的人口属性推断方法。其中,该方法包括针对所述用户在所述各平台的社交多媒体行为,提取文本特征和图片特征,得到所述各平台的用户特征;将训练集中用户的人口属性和所述用户特征作为监督信息,进行多个空间的对偶投影矩阵学习,并对所述用户的所述各平台的社交多媒体行为进行约束,以确定所述各平台的对偶投影矩阵和共享稳定的用户信息;根据所述用户特征对所述对偶投影矩阵进行投影变换,并基于投影变换结果所得到的所述共享稳定的用户信息进行所述人口属性的推断。本发明实施例解决了观察到的社交多媒体行为的动态性和相对稳定的人口属性之间的矛盾,提高了用户的人口属性推断结果的准确性。
-
-
-
-
-
-
-
-
-