利用视频检测打架行为的方法和装置

    公开(公告)号:CN102750709B

    公开(公告)日:2015-12-09

    申请号:CN201210176959.1

    申请日:2012-05-31

    Abstract: 本发明涉及一种利用视频检测打架行为的方法和装置,所述方法包括如下步骤:从所述视频中获取多个连续视频帧;从多个连续视频帧中提取运动前景;从运动前景中检测运动对象;判断多个连续视频帧中是否存在至少两个运动对象,如果存在,则继续执行下面的步骤,如果不存在,则判断未发生打架行为;计算多个连续视频帧中各运动对象相互之间的距离,如果该距离小于一个指定阈值,则继续执行下面的步骤,如果该距离不小于该指定阈值,则判断未发生打架行为;计算多个连续视频帧中覆盖至少两个运动对象的最小矩形框的面积的面积变化强度的大小来判断是否发生打架行为;其中,所述面积变化强度是表示面积连续变化时的变化速率的一个参量。本发明能够有效减少打架行为检测的误报率。

    利用视频检测打架行为的方法和装置

    公开(公告)号:CN102750709A

    公开(公告)日:2012-10-24

    申请号:CN201210176959.1

    申请日:2012-05-31

    Abstract: 本发明涉及一种利用视频检测打架行为的方法和装置,所述方法包括如下步骤:从所述视频中获取多个连续视频帧;从多个连续视频帧中提取运动前景;从运动前景中检测运动对象;判断多个连续视频帧中是否存在至少两个运动对象,如果存在,则继续执行下面的步骤,如果不存在,则判断未发生打架行为;计算多个连续视频帧中各运动对象相互之间的距离,如果该距离小于一个指定阈值,则继续执行下面的步骤,如果该距离不小于该指定阈值,则判断未发生打架行为;计算多个连续视频帧中覆盖至少两个运动对象的最小矩形框的面积的面积变化强度的大小来判断是否发生打架行为;其中,所述面积变化强度是表示面积连续变化时的变化速率的一个参量。本发明能够有效减少打架行为检测的误报率。

    基于联合策略多样性的多智能体探索方法和设备

    公开(公告)号:CN117018624A

    公开(公告)日:2023-11-10

    申请号:CN202310981342.5

    申请日:2023-08-04

    Abstract: 本发明提供一种基于联合策略多样性的多智能体探索方法和设备,该方法包括:获取多智能体与游戏仿真环境交互得到的多组仿真数据,从多组仿真数据中选取至少一组目标仿真数据,基于任意一组目标仿真数据中多智能体的观测数据与输出动作所对应的第一策略概率,确定任意一组目标仿真数据中多智能体的输出动作对应的基于联合策略多样性的团队奖励;基于任意一组目标仿真数据中多智能体的输出动作对应的基于联合策略多样性的团队奖励,更新任意一组目标仿真数据中多智能体的输出动作对应的初始团队奖励,然后更新多智能体的参数和第一策略概率,通过利用策略层面的信息来引导智能体的探索行为,提高了智能体动作的多样性,提升了智能体的探索效率。

    一种基于数据与任务驱动的图像分类方法

    公开(公告)号:CN103984959B

    公开(公告)日:2017-07-21

    申请号:CN201410224860.3

    申请日:2014-05-26

    Abstract: 本发明公开了一种基于数据与任务驱动的图像分类方法,该方法包括:根据数据集规模与图像内容设计卷积神经网络结构;使用给定分类数据集对卷积神经网络模型进行训练;使用训练后的卷积神经网络对训练集图像提取特征表达;将测试图像输入训练后的卷积神经网络,并进行分类。本发明方法基于非线性卷积特征学习,可以以数据驱动的方式实现模型对数据集的自适应,从而更好的描述特定的数据集,通过任务驱动的方式直接对K近邻的误差进行优化,使其能够在K近邻任务上取得更好的性能;并且在训练阶段可以采用GPU进行高效训练,在测试阶段只需使用CPU就可以实现高效的K近邻图像分类,非常适用于大规模的图像分类、检索等任务。

    基于集成学习的多智能体信用分配方法、系统、设备

    公开(公告)号:CN115018017B

    公开(公告)日:2022-10-28

    申请号:CN202210924862.8

    申请日:2022-08-03

    Abstract: 本发明属于强化学习、多智能体领域,具体涉及一种基于集成学习的多智能体信用分配方法、系统、设备,旨在解决解决现有技术只关注局部状态空间,对全局状态信息的利用不充分,从而导致智能体无法在博弈环境中取得最优动作,造成多智能体协调能力差的问题。本方法包括:分别获取博弈双方每一个智能体的动作信息和历史观测信息,作为输入信息;将输入信息分别输入各智能体对应的智能体网络,得到Q值;各智能体根据Q值,得到e‑greedy策略,进而在设定的博弈场景中进行探索。本发明通过平衡多样性和准确性来充分利用全局状态信息,实现有效的集成信用分配,进而实现了智能体在博弈环境中取得最优动作进行探索,提升多智能体协调能力。

    不完全信息博弈的决策方法、装置、电子设备与存储介质

    公开(公告)号:CN114429213A

    公开(公告)日:2022-05-03

    申请号:CN202111499250.0

    申请日:2021-12-09

    Abstract: 本发明提供一种不完全信息博弈的决策方法、装置、电子设备与存储介质,所述方法包括:基于各对象组合的当前强度,以及所述各对象组合对应的出路数量,确定所述各对象组合的最终胜率;所述出路数量为有利于所述各对象组合的强度增强的待补充公共对象数量;基于所述各对象组合的最终胜率,构建博弈树;基于所述博弈树,求解纳什均衡策略。本发明提供的方法、装置、电子设备与存储介质,解决了信息抽象技术中对象组合胜率的评估速度慢的难题,实现了缩短均衡分析算法的决策收益计算时间,能够极大地节约CFR的迭代时间,同时可以降低均衡分析算法在不完全信息博弈决策问题中的应用效率,促进不完全信息博弈领域的发展。

    基于深度强化学习网络构建多样化搜索策略的模型的方法

    公开(公告)号:CN113962390A

    公开(公告)日:2022-01-21

    申请号:CN202111565916.8

    申请日:2021-12-21

    Abstract: 本公开涉及一种基于深度强化学习网络构建多样化搜索策略的模型的方法,上述方法基于虚拟奖励的权重的设置,能够使得不同智能体访问不同的状态,一旦某个智能体陷入了误导性奖励,那么当其他智能体再次访问导向这个误导性奖励的一系列状态时,由于权重是负值,所以其余这些智能体获得的虚拟奖励的信号是负的,也就会迫使这些智能体不再访问导向这个误导性奖励的这一系列状态,从而保证不同的智能体访问不同的状态集合,使得更新后的搜索策略模型经过训练后能够找到全局最优对应的第二目标位置,有效解决了现有技术中对高维数据进行搜索时陷入误导性奖励导致的无法搜索到全局最优的技术问题,能够降低智能体由于误导性奖励陷入局部解的概率。

    一种基于多智能体的实时战略游戏对局方法

    公开(公告)号:CN112755538B

    公开(公告)日:2021-08-31

    申请号:CN202110370381.2

    申请日:2021-04-07

    Abstract: 本发明提供一种基于多智能体的实时战略游戏对局方法,包括:AERUCT搜索算法:根据当前的血量和胜率自适应的调整探索比,进行前向搜索,根据当前状态计算搜索方向的评估值,根据所述搜索方向的评估值来选择下一步搜索方向;所述AERUCT搜索算法为改进的UCT搜索算法;AERUCT搜索算法在小规模游戏场景中性能会有所提升,但由于大规模游戏场景搜索决策的节点数增多且受时间限制,UCTRL算法通过存储更新性能好的策略与AERUCT搜索的结果比较,评估选择胜率大的子节点,反向更新状态信息,如此反复,保证当前策略不差于之前的策略,使每个智能体更智能,提高学习能力。

Patent Agency Ranking