评估交互事件的方法及装置

    公开(公告)号:CN111476223B

    公开(公告)日:2020-09-22

    申请号:CN202010588751.5

    申请日:2020-06-24

    Abstract: 本说明书实施例提供一种计算机执行的评估交互事件的方法和装置,其中方法包括,首先获取用于反映交互事件关联关系的动态交互图,然后分别以待分析的两个目标节点为当前根节点,在动态交互图中确定出对应的两个子图。将这两个子图输入神经网络模型,以得到与两个目标节点交互对应的交互表征向量,其中在神经网络模型中,处理层根据两个子图中各个节点的输入特征和子图的图结构,得到各个节点的隐含向量,融合层利用压缩‑变换机制,根据隐含向量确定节点的权重估计,并据此更新节点的输入特征,传递到下一处理层,最终通过输出层得到前述交互表征向量。于是,可以基于该交互表征向量,评估两个目标节点交互的交互事件。

    评估交互事件的方法及装置

    公开(公告)号:CN111476223A

    公开(公告)日:2020-07-31

    申请号:CN202010588751.5

    申请日:2020-06-24

    Abstract: 本说明书实施例提供一种计算机执行的评估交互事件的方法和装置,其中方法包括,首先获取用于反映交互事件关联关系的动态交互图,然后分别以待分析的两个目标节点为当前根节点,在动态交互图中确定出对应的两个子图。将这两个子图输入神经网络模型,以得到与两个目标节点交互对应的交互表征向量,其中在神经网络模型中,处理层根据两个子图中各个节点的输入特征和子图的图结构,得到各个节点的隐含向量,融合层利用压缩-变换机制,根据隐含向量确定节点的权重估计,并据此更新节点的输入特征,传递到下一处理层,最终通过输出层得到前述交互表征向量。于是,可以基于该交互表征向量,评估两个目标节点交互的交互事件。

    优化风险检测模型的方法及装置

    公开(公告)号:CN112200380B

    公开(公告)日:2023-07-25

    申请号:CN202011147798.4

    申请日:2020-10-23

    Abstract: 本说明书实施例提供一种优化风险检测模型的方法和装置,该方法包括,首先获取样本集,其中包括具有第一标签值的正常样本和具有第二标签值的原始风险样本。对于各个原始风险样本,根据训练风险检测模型使用的损失函数以及当前的风险检测模型,确定攻击者对该原始风险样本进行潜在攻击变换而得到的对抗风险样本。然后基于损失函数,确定风险检测模型针对各个对抗风险样本的第一预测损失,以及针对各个正常样本的第二预测损失;并至少基于该第一和第二预测损失,确定总预测损失。接着,以总预测损失最小化为目标,调整风险检测模型的模型参数,以优化该风险检测模型。

    资源转移预测模型的训练方法、装置及计算设备

    公开(公告)号:CN111160614B

    公开(公告)日:2023-03-24

    申请号:CN201911229080.7

    申请日:2019-12-04

    Abstract: 本说明书一个或多个实施例提供了一种资源转移预测模型的训练方法、装置及计算设备。在一个实施例中,该方法包括:获取多个历史行为数据集合中的多个用户的历史行为特征数据和资源转移数据;将每一个历史行为数据集合对应的历史行为特征数据输入模型,得到每一个历史行为数据集合对应的预测值;聚合每一个历史行为数据集合对应的预测值和资源转移数据,得到每一个历史行为数据集合对应的损失函数;在每一个历史行为数据集合对应的损失函数不满足预设条件的情况下,根据每一个历史行为数据集合对应的损失函数调整模型中的参数;继续迭代,直至损失函数满足预设条件,将参数调整后的模型作为训练后的资源转移预测模型。

    训练交互预测模型、预测交互对象的方法及装置

    公开(公告)号:CN111523682B

    公开(公告)日:2020-10-23

    申请号:CN202010631311.3

    申请日:2020-07-03

    Abstract: 本说明书实施例提供一种交互预测模型的训练和使用方法及装置。在该方法中,首先基于交互事件序列构建动态交互图,从中确定出属于第一类对象的第一样本节点和属于第二类对象的备选节点。利用表征网络,分别确定各节点的节点向量。然后,将第一样本节点的向量输入生成网络,生成网络从备选节点中选择预测节点。将第一样本节点和预测节点输入判别网络,以确定二者交互的第一概率;还将第一样本节点和对应的第二样本节点输入判别网络,以确定二者交互的第二概率。以增大第二概率,减小第一概率为目标,训练表征网络和判别网络;以增大第一概率为目标,训练表征网络和生成网络。训练后的表征网络和生成网络作为用于预测交互对象的交互预测模型。

    处理交互序列数据的方法及装置

    公开(公告)号:CN111258469A

    公开(公告)日:2020-06-09

    申请号:CN202010022182.8

    申请日:2020-01-09

    Abstract: 本说明书实施例提供一种处理交互数据的方法和装置。在该方法中,首先获取根据交互事件集构建的动态交互图,其中任意节点i通过连接边指向该节点i所代表的对象上次参与的N个关联事件所对应的M个关联节点,其中允许对象同时参与多个关联事件,允许节点连接到多于2个的关联节点。然后,在动态交互图中,确定与目标节点对应的目标子图,该目标子图包括从目标节点出发,经由连接边到达的预定范围内的节点;于是,基于该目标子图中包含的各个节点的节点特征,以及节点之间的连接边的指向关系,可以确定目标节点对应的特征向量,以进行业务处理。

    利用LSTM神经网络模型处理交互数据的方法及装置

    公开(公告)号:CN115081589A

    公开(公告)日:2022-09-20

    申请号:CN202210602804.3

    申请日:2020-01-09

    Abstract: 本说明书实施例提供一种处理交互数据的方法和装置。在该方法中,首先获取根据交互事件集构建的动态交互图,图中的任意节点i通过连接边指向该节点i所代表的对象上次参与的N个关联事件所对应的M个关联节点,其中,允许对象同时参与多个关联事件,允许节点连接到多于2个的关联节点。然后,在动态交互图中,确定与待分析的当前节点对应的当前子图,并将当前子图输入神经网络模型进行处理。神经网络模型包括LSTM层,LSTM层根据当前子图中各个节点之间的连接边的指向关系,依次迭代处理各个节点,从而得到当前节点的隐含向量。

    利用博弈论更新推荐模型的方法及装置

    公开(公告)号:CN112149824B

    公开(公告)日:2022-07-22

    申请号:CN202010968311.2

    申请日:2020-09-15

    Abstract: 本说明书实施例提供一种更新推荐模型的方法和装置,其中推荐模型包括通过强化学习实现的智能体。方法包括:获取针对目标用户的当前推荐状态,将其输入智能体,智能体根据推荐策略,从备选动作集中确定针对目标用户的推荐动作。其中,推荐策略通过策略参数进行表征。然后,确定在执行上述推荐动作的情况下,按照推荐策略进行推荐的期望收益,作为第一收益;确定在推荐策略下,执行所有备选动作的预期平均收益,作为第二收益;并且,基于第一收益与第二收益的差值,确定执行推荐动作的遗憾度表示。根据上述遗憾度表示,确定对策略参数的更新梯度;于是根据更新梯度,更新智能体中的推荐策略。

    确定执行设备的动作选择方针

    公开(公告)号:CN112997198B

    公开(公告)日:2022-07-15

    申请号:CN201980028594.8

    申请日:2019-12-12

    Inventor: 李辉 宋乐

    Abstract: 本文公开了用于生成动作选择方针以在环境中完成任务的方法、系统和装置,包括编码在计算机存储介质上的计算机程序。所述方法包括:基于采样方针和探索方针计算执行设备在一个状态下的混合采样方针,其中,所述探索方针指定与所述状态下的多个可能动作中的每个动作相对应的相应的探索概率,探索概率与所述状态下的多个可能动作中的每个动作已被采样的次数负相关;根据混合采样方针中指定的动作的采样概率,对所述状态下的多个可能动作中的一个动作进行采样;以及通过基于所述动作执行蒙特卡罗反事实遗憾最小化来更新在所述状态下的动作选择方针。

    利用博弈论更新推荐模型的方法及装置

    公开(公告)号:CN112149824A

    公开(公告)日:2020-12-29

    申请号:CN202010968311.2

    申请日:2020-09-15

    Abstract: 本说明书实施例提供一种更新推荐模型的方法和装置,其中推荐模型包括通过强化学习实现的智能体。方法包括:获取针对目标用户的当前推荐状态,将其输入智能体,智能体根据推荐策略,从备选动作集中确定针对目标用户的推荐动作。其中,推荐策略通过策略参数进行表征。然后,确定在执行上述推荐动作的情况下,按照推荐策略进行推荐的期望收益,作为第一收益;确定在推荐策略下,执行所有备选动作的预期平均收益,作为第二收益;并且,基于第一收益与第二收益的差值,确定执行推荐动作的遗憾度表示。根据上述遗憾度表示,确定对策略参数的更新梯度;于是根据更新梯度,更新智能体中的推荐策略。

Patent Agency Ranking