-
公开(公告)号:CN108304767A
公开(公告)日:2018-07-20
申请号:CN201711319214.5
申请日:2017-12-12
Applicant: 中国科学院自动化研究所
Abstract: 本发明属于认知神经科学领域,具体涉及一种基于多脑区协同计算的人类动作意图识别训练方法,包括:1,对人体动作进行图像采集;2,获取的人体关节信息,进行人体动作类别识别;3,基于类脑计算模型,采用多脑区协同计算的方式,依据人类执行的动作类别,计算机器人动作策略;4,输入对3所计算的机器人动作策略的正确性判断;5,基于4中输入的所述正确性判断,通过STDP机制调节所述类脑计算模型的参数;6,若4中输入的所述正确性判断为错误则执行1进行重复训练,直至4中输入的所述正确性判断为正确。本发明克服了传统人机交互技术中需要预先编程等不够灵活的缺点,提升了使用体验。
-
公开(公告)号:CN103699663B
公开(公告)日:2017-02-08
申请号:CN201310741535.X
申请日:2013-12-27
Applicant: 中国科学院自动化研究所
IPC: G06F17/30
Abstract: 本发明公开了一种基于大规模知识库的热点事件挖掘方法,其包括:一种基于大规模知识库的热点事件挖掘方法,其特征在于,包括以下步骤:基于互联网中获取的数据,自动构建面向文本理解的大规模知识库,并实现其自动优化和知识更新;基于大规模知识库,对待检测的短文本进行结构化信息抽取,并根据所抽取的结构化信息对所述待检测的短文本进行分类,筛选出相应事件类文本;基于大规模知识库,将所筛选的事件类文本进行聚类,进而筛选出热点事件。本发明具有以下优点:自动从互联网中抽取结构化知识表示,并为实例和概念之间的语义关系建立结构化元组表示,并且具有知识回溯模式,提高了对短文本进行结构化信息抽取的准确度。
-
公开(公告)号:CN108304767B
公开(公告)日:2020-06-30
申请号:CN201711319214.5
申请日:2017-12-12
Applicant: 中国科学院自动化研究所
Abstract: 本发明属于认知神经科学领域,具体涉及一种基于多脑区协同计算的人类动作意图识别训练方法,包括:1,对人体动作进行图像采集;2,获取的人体关节信息,进行人体动作类别识别;3,基于类脑计算模型,采用多脑区协同计算的方式,依据人类执行的动作类别,计算机器人动作策略;4,输入对3所计算的机器人动作策略的正确性判断;5,基于4中输入的所述正确性判断,通过STDP机制调节所述类脑计算模型的参数;6,若4中输入的所述正确性判断为错误则执行1进行重复训练,直至4中输入的所述正确性判断为正确。本发明克服了传统人机交互技术中需要预先编程等不够灵活的缺点,提升了使用体验。
-
公开(公告)号:CN103500208B
公开(公告)日:2016-08-17
申请号:CN201310459692.1
申请日:2013-09-30
Applicant: 中国科学院自动化研究所
IPC: G06F17/30
Abstract: 本发明公开了一种结合知识库的深层数据处理方法,该方法包括以下步骤:对于本体库中的概念元组集合进行归并;得到不同类型谓词的链接路径和相应的逻辑规则集合;对逻辑规则集合初步筛选获得候选规则集合;得到深层概率图模型;基于待处理数据得到结构化元组并映射到层次化概念空间;生成目标元组并进行语义泛化;得到逻辑规则集合和证据元组集合;对马尔可夫逻辑网络进行实例化,计算目标元组成立的条件概率,得到数据处理结果。本发明还提供了一种深层数据处理系统,该系统包括结构化模块、概念化模块、目标生成模块、泛化模块、激活模块和概率计算模块。利用本发明,可以充分融合上下文语境以及背景知识,从而真正达到语义理解的目的。
-
公开(公告)号:CN108197698B
公开(公告)日:2022-10-14
申请号:CN201711325022.5
申请日:2017-12-13
Applicant: 中国科学院自动化研究所
IPC: G06N3/04 , G06N3/08 , G06V10/764 , G06V10/82
Abstract: 本发明属于认知神经技术领域,具体涉及一种基于多模态融合的多脑区协同自主决策方法。旨在解决现有无人机避障技术成本较高、不够机动灵活以及现有的强化学习方法要求控制对象具有强烈的容错能力的问题。本发明提供一种基于多模态融合的多脑区协同自主决策方法,包括获取障碍物的空间位置信息,将其输入预先构建的多脑区协同强化学习模型;根据环境反馈的奖励信息,通过多巴胺调控和突触可塑性机制,更新所述多脑区协同强化学习模型,实现无人机自主避障。本发明能够准确地评估场景中障碍物的危险程度,并且模拟人脑自主学习过程,让无人机快速准确地学习到避障策略,实现自主躲避障碍物,完成任务。
-
公开(公告)号:CN104091054B
公开(公告)日:2017-12-05
申请号:CN201410299114.0
申请日:2014-06-26
Applicant: 中国科学院自动化研究所
Abstract: 本发明公开了一种面向短文本的群体性事件预警方法,该方法包括以下步骤:自动构建面向群体性安全事件的领域知识库;结合领域知识库,对短文本进行局部结构化抽取和在线分类,从海量短文本中筛选出涉及潜在安全隐患的群体性事件文本;结合领域知识库,对识别出的短文本进行全局结构化处理和在线聚类,并根据每个“聚类簇”内包含的短文本数目是否超过给定阈值来决定是否进行及时预警。本发明具有以下优点:充分融合领域背景知识和上下文语境、浅层语义表达和深层语义计算,实现群体性安全事件的协同分析和预测,有助于提高群体性事件的信息甄别、跟踪和预警的及时性、准确率和召回率。
-
公开(公告)号:CN108197698A
公开(公告)日:2018-06-22
申请号:CN201711325022.5
申请日:2017-12-13
Applicant: 中国科学院自动化研究所
Abstract: 本发明属于认知神经技术领域,具体涉及一种基于多模态融合的多脑区协同自主决策方法。旨在解决现有无人机避障技术成本较高、不够机动灵活以及现有的强化学习方法要求控制对象具有强烈的容错能力的问题。本发明提供一种基于多模态融合的多脑区协同自主决策方法,包括获取障碍物的空间位置信息,将其输入预先构建的多脑区协同强化学习模型;根据环境反馈的奖励信息,通过多巴胺调控和突触可塑性机制,更新所述多脑区协同强化学习模型,实现无人机自主避障。本发明能够准确地评估场景中障碍物的危险程度,并且模拟人脑自主学习过程,让无人机快速准确地学习到避障策略,实现自主躲避障碍物,完成任务。
-
公开(公告)号:CN104091054A
公开(公告)日:2014-10-08
申请号:CN201410299114.0
申请日:2014-06-26
Applicant: 中国科学院自动化研究所
Abstract: 本发明公开了一种面向短文本的群体性事件预警方法,该方法包括以下步骤:自动构建面向群体性安全事件的领域知识库;结合领域知识库,对短文本进行局部结构化抽取和在线分类,从海量短文本中筛选出涉及潜在安全隐患的群体性事件文本;结合领域知识库,对识别出的短文本进行全局结构化处理和在线聚类,并根据每个“聚类簇”内包含的短文本数目是否超过给定阈值来决定是否进行及时预警。本发明具有以下优点:充分融合领域背景知识和上下文语境、浅层语义表达和深层语义计算,实现群体性安全事件的协同分析和预测,有助于提高群体性事件的信息甄别、跟踪和预警的及时性、准确率和召回率。
-
公开(公告)号:CN103500208A
公开(公告)日:2014-01-08
申请号:CN201310459692.1
申请日:2013-09-30
Applicant: 中国科学院自动化研究所
IPC: G06F17/30
CPC classification number: G06F17/30401 , G06F17/30528
Abstract: 本发明公开了一种结合知识库的深层数据处理方法,该方法包括以下步骤:对于本体库中的概念元组集合进行归并;得到不同类型谓词的链接路径和相应的逻辑规则集合;对逻辑规则集合初步筛选获得候选规则集合;得到深层概率图模型;基于待处理数据得到结构化元组并映射到层次化概念空间;生成目标元组并进行语义泛化;得到逻辑规则集合和证据元组集合;对马尔可夫逻辑网络进行实例化,计算目标元组成立的条件概率,得到数据处理结果。本发明还提供了一种深层数据处理系统,该系统包括结构化模块、概念化模块、目标生成模块、泛化模块、激活模块和概率计算模块。利用本发明,可以充分融合上下文语境以及背景知识,从而真正达到语义理解的目的。
-
公开(公告)号:CN106708084B
公开(公告)日:2019-08-02
申请号:CN201611052401.7
申请日:2016-11-24
Applicant: 中国科学院自动化研究所
IPC: G05D1/10 , H04N13/128
Abstract: 本发明涉及一种复杂环境下无人机自动障碍物检测和避障方法,包括:利用无人机上设置的双目摄像头进行实时的图像采集,基于所采集的左、右两幅图像匹配计算生成视差图并进行预处理;基于视差图信息,对视差图进行轮廓和灰度值的聚类划分,得到具有清晰结构的区域块,将所述区域块的噪声干扰去除后得到潜在障碍物区域;对比前后两帧视差图中对应的潜在障碍物区域,结合障碍物的放大特性,依据无人机与潜在障碍物区域的距离和潜在障碍物区域的面积筛选得到最终障碍物区域;基于所得到的最终障碍物区域,输出无人机避障的动作指令。本发明在面对的复杂的存在多个隐含障碍物的环境下,具有优秀的障碍物检测和避障能力。
-
-
-
-
-
-
-
-
-