-
公开(公告)号:CN114443911A
公开(公告)日:2022-05-06
申请号:CN202111627355.X
申请日:2021-12-28
Applicant: 度小满科技(北京)有限公司
IPC: G06F16/903 , G06F16/901 , G06F16/9032 , G06F40/30
Abstract: 本发明公开了一种图数据语义分析方法,该方法将图数据语义分析过程拆解为计算N阶内特征值、N阶外邻居特征以及特征结合三个部分,将最消耗资源的邻居特征的计算前移至离线阶段,在接收到用户发起的数据分析请求后,当某节点作为目标节点的N阶邻居节点时,取出预先缓存的X阶历史邻居特征即可恢复深度邻居建模计算的整个流程,可以在保证分析深度为N+X阶邻居特征的同时,使在线图数据库的查询阶数由N+X阶邻居降低到N阶邻居,极大地降低了在线图数据库的查询压力,保障了在线阶段计算的同时通过数据的轻量程度来加快计算速度,降低计算资源消耗。本发明还公开了一种图数据语义分析装置、设备及可读存储介质,具有相应的技术效果。
-
公开(公告)号:CN117422101A
公开(公告)日:2024-01-19
申请号:CN202311476879.2
申请日:2023-11-07
Applicant: 度小满科技(北京)有限公司
IPC: G06N3/042 , G06N3/0495 , G06N3/08
Abstract: 本发明提供一种数据处理方法、装置、电子设备及可读存储介质,包括:接收第一输入,所述第一输入为第一图神经网络数据,所述第一图神经网络数据包括节点和连接所述节点的边特征;响应于所述第一输入,将所述第一图神经网络数据按时域压缩为包含全量数据的第二图神经网络结构;接收第二输入,所述第二输入为获取目标第一图神经网络数据的指令;响应于所述第二输入,按时间戳从所述第二图神经网络结构中生成目标图神经网络结构。本发明减少第一图神经网络数据中重复的节点和边特征造成的庞大数据量,加快了建模效率。
-