一种软件机器人协同处理方法及系统

    公开(公告)号:CN111858027B

    公开(公告)日:2024-03-19

    申请号:CN202010536581.6

    申请日:2020-06-12

    Abstract: 本发明涉及一种软件机器人协同处理方法及系统。该方案主要包括:1)任务理解与拆分组件,实现针对用户特定请求的子任务拆分与依赖关系信息库构建;2)软件机器人仓库,统一存放不同功能的软件机器人,实现机器人的用时下发、按需部署与用后回收;3)机器人调度中心,完成子任务拆分与机器人队伍组建之间的映射、实现机器人下发至软件执行节点并部署启动。此外,可以采用实时软件机器人监控中心完成机器人的动态扩展与适时缩编功能。本发明能够根据不同的用户任务请求建立不同的软件机器人队伍,配置机器人队伍执行顺序,协同完成特定的用户请求与业务任务,有效提升了应用软件的可扩展性、模块可复用性,最终实现软硬件资源的合理调度。

    一种个性化兴趣点推荐方法及系统

    公开(公告)号:CN111949877B

    公开(公告)日:2023-02-28

    申请号:CN202010816756.9

    申请日:2020-08-14

    Abstract: 本发明公开了一种个性化兴趣点推荐方法及系统。本方法包括:1)根据用户及兴趣点的历史签到信息,获取用户集合、兴趣点集合和每个用户兴趣点集合;2)将每个兴趣点信息进行编码得到兴趣点向量;3)根据兴趣点签到时间信息,编码得到对应用户的时间特征向量;4)根据兴趣点签到天气信息,编码得到对应用户的天气特征向量;5)根据兴趣点签到信息,编码得到对应用户是空间特征向量;6)根据用户的上述向量,得到对应用户兴趣点矩阵;7)根据用户兴趣点矩阵训练LSTM‑Autoencoder模型,对签到序列进行修正,得到用户兴趣点访问偏好;8)根据目标用户的兴趣点访问偏好,给定时间信息、天气信息,向目标用户进行兴趣点推荐。

    一种改进的基于事件演化图的脚本学习方法和装置

    公开(公告)号:CN114462379B

    公开(公告)日:2025-04-25

    申请号:CN202110265366.1

    申请日:2021-03-11

    Abstract: 本发明涉及一种改进的基于事件演化图的脚本学习方法和装置。该方法包括:利用由具体事件链构成的具体事件网络构建抽象的事件演化图;挖掘事件演化图中蕴含的事件演化知识,以学习上下文事件和候选事件的初始嵌入表示;将上下文事件和候选事件的初始嵌入表示输入双向LSTM网络,得到上下文事件和候选事件的更新后的嵌入表示,其中包含事件链的时序信息以及事件演化图中蕴含的事件演化知识;利用更新后的嵌入表示对上下文事件和候选事件进行相似度计算,得到每一个候选事件的相似度得分,将相似度得分概率化,选择概率最高的候选事件作为最终预测的事件。本发明对于脚本事件预测具有较高的准确度,能够用于隐私窃取攻击事件预测等领域。

    一种序列到无序多树模型的三元组抽取方法

    公开(公告)号:CN117540739A

    公开(公告)日:2024-02-09

    申请号:CN202311284404.3

    申请日:2023-10-07

    Abstract: 本发明公开了一种序列到无序多树模型的三元组抽取方法,其特征在于,构建一编码器‑解码器框架,所述编码器‑解码器框架中的编码器包括嵌入层、IDCNN、BiLSTM和第一卷积层CNN;所述编码器‑解码器框架中的解码器包括LSTM、注意力机制层和第二卷积层CNN;本发明采用IDCNN+BiLSTM作为编码器,IDCNN结构采用了多尺度的卷积核,可以捕捉更长的上下文信息,能够提取更多特征,有助于提高模型性能;解码器通过使用无序多标签分类作为输出层,对实体和关系进行联合建模和结构化建模;每个层级中的节点是无序的,且不考虑预定义的三元组顺序,因此预测偏差不会累积并影响其他三元组。

    一种基于层级感知的事件抽取方法和系统

    公开(公告)号:CN116975285A

    公开(公告)日:2023-10-31

    申请号:CN202310830552.4

    申请日:2023-07-07

    Abstract: 本发明涉及一种基于层级感知的事件抽取方法和系统。该方法包括:将训练数据输入事件抽取模块进行事件抽取,得到对应的事件类型;将事件抽取模块得到的事件类型输入图嵌入模块,图嵌入模块利用因果关系和子事件关系在极坐标中学习事件嵌入,得到在旋转和模数两个维度上具有层次结构的事件图;对事件抽取模块和图嵌入模块一起进行训练,通过图嵌入模块增强事件嵌入表示并提高事件抽取模块的性能;将待进行事件抽取的文本输入训练完成的事件抽取模块,得到事件抽取结果。本发明提出了HAEE模型来构建事件图嵌入,在低资源情况下的事件抽取任务能有较高的性能,并通过对不同维度的嵌入分析来证明事件图嵌入可以有效的建模事件语义层次结构。

    一种改进的基于概率校准的知识图谱生成方法

    公开(公告)号:CN114443851A

    公开(公告)日:2022-05-06

    申请号:CN202011230710.5

    申请日:2020-11-06

    Abstract: 本发明公开了一种改进的基于概率校准的知识图谱生成方法,其步骤包括:1)选定用于知识图谱嵌入的基础模型及目标领域的训练数据集;2)利用所述训练数据集训练所选基础模型,并在训练时对训练所得向量的每一维施加规则约束条件;3)对每次训练后的基础模型进行概率校准,达到设定校准状态或最优校准状态;4)利用最终训练所得基础模型对该目标领域的知识图谱进行补全处理,得到该目标领域的知识图谱。本发明同时应用规则约束和概率校准,可以在增加有限复杂性的前提下,实现对嵌入模型效果的提升。

    一种跨媒体的事件抽取方法

    公开(公告)号:CN106484767A

    公开(公告)日:2017-03-08

    申请号:CN201610809600.1

    申请日:2016-09-08

    CPC classification number: G06F16/3344 G06F17/2785 G06Q50/01

    Abstract: 本发明公开了一种跨媒体的事件抽取方法。本方法为:设置种子事件特征库及所需的知识数据;从可信新闻源中采集新闻网页,并提取新闻文本及元数据信息;从每则新闻文本中抽取事件要素信息,生成一初始事件集合;计算初始事件各要素在事件刻画中的重要程度,生成事件初始概要框架;基于事件初始概要框架中的各要素搜索社交网络消息文本,生成候选消息集合;根据候选消息的概要框架与事件概要框架的相似度对候选消息进行过滤,得到初始事件对应的消息队列;将事件初始概要框架中的事件要素和消息队列中存在而初始概要框架中不存在的事件要素生成完备事件数据。本发明能够在海量跨媒体数据环境中实现重大事件的精确抽取。

    一种通用串行总线USB存储设备及其访问控制方法

    公开(公告)号:CN102479301B

    公开(公告)日:2015-07-15

    申请号:CN201010568383.4

    申请日:2010-11-26

    Abstract: 本发明公开了一种通用串行总线(USB)存储设备,包括:USB插头、USB控制模块和USB存储模块;所述USB插头上设置有访问控制引脚,所述USB存储设备通过所述USB插头与主机设备相连;所述USB控制模块检测所述访问控制引脚的电平值,并根据检测结果的不同对所述USB存储模块实施不同的访问控制策略。本发明同时公开了一种USB存储设备的访问控制方法。应用本发明所述的技术方案,能够缩短时延和提高安全性。

    一种实时检测RGB视频中的3D手与未知物体交互的方法和装置

    公开(公告)号:CN112199994B

    公开(公告)日:2023-05-12

    申请号:CN202010916742.4

    申请日:2020-09-03

    Abstract: 本发明涉及一种实时检测RGB视频中的3D手与未知物体交互的方法和装置。该方法的步骤包括:以视频帧作为输入训练卷积神经网络,卷积神经网络预测每帧图像的3D手姿势、6D物体姿态、手部动作和物体类别;以卷积神经网络检测到的3D手姿势、6D物体姿态作为输入训练交互循环神经网络,循环神经网络利用视频中的时序信息得出视频中的手与物体的交互类别;将待检测视频输入训练完成的卷积神经网络和交互循环神经网络,得到视频中每帧图像的3D手姿势、6D物体姿态、手部动作、物体类别和视频中手与物体的交互动作。本发明不需要深度照片或真实物体姿态坐标作为输入,提升了手部动作识别准确率,大大提升了识别范围,更方便应用于生活中。

    一种实时检测RGB视频中的3D手与未知物体交互的方法和装置

    公开(公告)号:CN112199994A

    公开(公告)日:2021-01-08

    申请号:CN202010916742.4

    申请日:2020-09-03

    Abstract: 本发明涉及一种实时检测RGB视频中的3D手与未知物体交互的方法和装置。该方法的步骤包括:以视频帧作为输入训练卷积神经网络,卷积神经网络预测每帧图像的3D手姿势、6D物体姿态、手部动作和物体类别;以卷积神经网络检测到的3D手姿势、6D物体姿态作为输入训练交互循环神经网络,循环神经网络利用视频中的时序信息得出视频中的手与物体的交互类别;将待检测视频输入训练完成的卷积神经网络和交互循环神经网络,得到视频中每帧图像的3D手姿势、6D物体姿态、手部动作、物体类别和视频中手与物体的交互动作。本发明不需要深度照片或真实物体姿态坐标作为输入,提升了手部动作识别准确率,大大提升了识别范围,更方便应用于生活中。

Patent Agency Ranking