状态值预测模型的训练方法及装置

    公开(公告)号:CN116468069A

    公开(公告)日:2023-07-21

    申请号:CN202310501183.4

    申请日:2023-05-06

    Abstract: 本发明公开了一种状态值预测模型的训练方法及装置。其中,该方法包括:根据第一网络在倒空间中的状态取值空间确定指数变换基底;根据指数变换基底对第一网络的第一输入状态值进行预处理,以得到最大量级以及第二输入状态值;根据最大量级对第一网络进行更新,以得到第二网络;根据第二输入状态值对第二网络进行训练。本发明解决了由于相关技术中各个状态值的量级相差较大,无法取得理想的训练效果的技术问题。

    基于反馈的口语文本转换方法、装置及电子设备

    公开(公告)号:CN116090440A

    公开(公告)日:2023-05-09

    申请号:CN202211718086.2

    申请日:2022-12-29

    Inventor: 石晶 徐爽 徐波

    Abstract: 本发明提供一种基于反馈的口语文本转换方法、装置及电子设备,其中方法包括:基于待转化口语文本和初始纠错模型,获取初始书面文本;基于待转化口语文本和初始书面文本,确定奖励信息;将待转化口语文本输入至口语文本转换模型中,得到口语文本转换模型输出的目标书面文本;其中,口语文本转换模型是基于奖励信息的反馈信号对初始纠错模型的模型参数进行强化学习后确定的模型。本发明能够避免现有采用完全监督学习学习的口语转换模型不能提升口语文本转换为书面文本的精确性和适用性的缺陷,并且能够通过使用无标注的口语文本在无监督和强化学习条件下生成口语转换模型的方式,大幅提升口语文本转换为书面文本的精确性和适用性。

    一种目标说话人分离系统、设备及存储介质

    公开(公告)号:CN115035907B

    公开(公告)日:2023-03-17

    申请号:CN202210602186.2

    申请日:2022-05-30

    Inventor: 许家铭 崔鉴 徐波

    Abstract: 本发明提供一种目标说话人分离系统、电子设备及存储介质,系统包括:首先基于掩蔽的预训练策略对多种线索进行联合统一建模,提升模型对缺失线索的推断能力,并增强被扰动线索的表征精度;其次,构建层级化的线索调制模块。分别在初级线索调制模块中引入空间线索定向增强说话人语音;在中级线索调制模块中基于动态线索与听觉信号分量的时间相干性增强说话人语音;并在高级线索调制模块中引入稳态线索进行选择性过滤;最后,充分发挥仿真数据的有监督学习能力和真实混合数据的无监督学习效果,构建多线索约束下更高效的半监督学习方法。将“分离‑再混合”的无监督学习融入到线索驱动目标说话人分离框架下,提升系统在真实嘈杂环境下的自适应能力。

    一种应用于兵棋推演的策略模型训练方法、装置及设备

    公开(公告)号:CN115577874A

    公开(公告)日:2023-01-06

    申请号:CN202211179903.1

    申请日:2022-09-27

    Abstract: 本发明实施例涉及人工智能领域,公开了一种应用于兵棋推演的策略模型训练方法、装置及设备。本发明实施例涉及的应用于兵棋推演的策略模型训练方法包括:分别获取第一策略模型和第二策略模型,第一策略模型来自第一种群池,第二策略模型来自第二种群池;调用第一策略模型与第二策略模型进行对战,得到第一对战结果,第一对战结果用于表征相应第一策略模型与相应第二策略模型的对战胜利的可能性;若第一对战结果大于第一预设阈值,则更新第一种群池中第一策略模型的被选概率。这样,双方策略模型对应的种群池随着训练不断优化更新,满足了双方策略模型对训练样本的数量以及多样性需求,以及避免了策略模型学习策略单一的情况。

    模型检查点参数域平均方法、装置、电子设备及存储介质

    公开(公告)号:CN115081614A

    公开(公告)日:2022-09-20

    申请号:CN202210576193.X

    申请日:2022-05-24

    Inventor: 王方圆 徐波

    Abstract: 本发明提供一种模型检查点参数域平均方法、装置、电子设备及存储介质,该方法涉及人工智能技术领域,包括:在对待训练深度神经网络模型训练过程中,保存多个检查点和所述多个检查点分别对应的多个模型参数;所述检查点用于表示在训练过程中不同阶段的模型;确定在各所述检查点分别对应的所述模型的损失函数的总损失值;基于所述总损失值,从所述多个检查点中确定待平均检查点;对所述待平均检查点对应的多个模型参数进行参数平均,得到所述模型的参数平均值。本发明提供的方法,结合了在训练集和验证集上模型的损失函数的总损失值,同时考虑了模型的偏差和方差,提升了模型的性能。

    一种自动化软件测试方法、装置及设备

    公开(公告)号:CN114706790B

    公开(公告)日:2022-09-13

    申请号:CN202210515156.8

    申请日:2022-05-12

    Inventor: 徐博 崔小平 徐波

    Abstract: 本申请实施例涉及计算机领域,公开了一种自动化软件测试方法、装置及设备。本申请实施例涉及的软件测试方法包括:在应用场景中存在多个项目共用一个触发规则的情况下,获取项目测试需求;依据项目测试需求调用项目关系信息,得到至少一个目标项目关系信息;调用触发规则,得到目标触发规则;调用触发器启动软件测试,触发器设置在代码仓库与集成工具之间。这样,一方面,触发规则库中存入多种触发规则,并通过预设的项目关系库中项目关系信息,可以实现同一个触发器在不同场景对于不同触发规则的调用,提高了触发器对多应用场景的兼容性;第二方面,通过预设建立项目与触发规则标识的联系,实现对触发规则的数据化驱动,从而减少人工维护成本。

    一种目标说话人分离系统、设备及存储介质

    公开(公告)号:CN115035907A

    公开(公告)日:2022-09-09

    申请号:CN202210602186.2

    申请日:2022-05-30

    Inventor: 许家铭 崔鉴 徐波

    Abstract: 本发明提供一种目标说话人分离系统、电子设备及存储介质,系统包括:首先基于掩蔽的预训练策略对多种线索进行联合统一建模,提升模型对缺失线索的推断能力,并增强被扰动线索的表征精度;其次,构建层级化的线索调制模块。分别在初级线索调制模块中引入空间线索定向增强说话人语音;在中级线索调制模块中基于动态线索与听觉信号分量的时间相干性增强说话人语音;并在高级线索调制模块中引入稳态线索进行选择性过滤;最后,充分发挥仿真数据的有监督学习能力和真实混合数据的无监督学习效果,构建多线索约束下更高效的半监督学习方法。将“分离‑再混合”的无监督学习融入到线索驱动目标说话人分离框架下,提升系统在真实嘈杂环境下的自适应能力。

    一种多智能体学习方法、装置及设备

    公开(公告)号:CN114611664A

    公开(公告)日:2022-06-10

    申请号:CN202210171628.2

    申请日:2022-02-24

    Abstract: 本申请实施例涉及人工智能领域,公开了一种多智能体学习方法、装置及设备。本申请实施例涉及的多智能体学习方法包括:部署至少两个执行网络用于为智能体提供动作执行环境,每个执行网络对应一个智能体,基于智能体当前的状态特征调用执行网络得到对应的动作结果,并且,调用所有智能体的动作结果并与环境进行交互训练,检测交互训练的次数是否等于预设阈值,当各个智能体的交互训练次数等于预设阈值时,基于交互训练产生的训练结果对全部所述智能体进行训练。这样,在学习过程中,随着智能体数量增加,只需对分布执行网络进行扩展,智能体动作空间不会变的复杂,此降低了每个智能体动作空间以及决策空间的设计难度,提升了智能体的学习效率。

    应用题解题知识库的构建方法、装置及应用题解题机器人

    公开(公告)号:CN114610835A

    公开(公告)日:2022-06-10

    申请号:CN202210107369.7

    申请日:2022-01-28

    Inventor: 齐振宇 徐波

    Abstract: 本发明提供一种应用题解题知识库的构建方法、装置及应用题解题机器人,所述方法包括:构建数学知识子库和构建常识知识子库;将所述数学知识子库和所述常识知识子库联立,构成应用题解题知识库,并分别为所述数学知识子库和所述常识知识子库配置对应的查询接口。本发明充分考虑到数学应用题解题相关的知识内容不仅包含数学知识内容,还包括常识知识内容,且这两部分知识内容存在非常大的差异,故将应用题解题知识库设计为两个子库,以针对两个子库的不同特点,采用不同方法分别进行内容获取及构建,获取到的应用题解题知识库能有效、准确地辅助应用题自动解题系统的开发,从而可以大大提高应用题自动解题系统的解题准确性。

    一种策略模型训练方法、装置及设备

    公开(公告)号:CN114330754A

    公开(公告)日:2022-04-12

    申请号:CN202210206944.9

    申请日:2022-03-04

    Abstract: 本申请实施例涉及人工智能领域,公开了一种策略模型训练方法、装置及设备。本申请实施例涉及的策略模型训练方法包括:分别获取第一策略模型以及第二策略模型对应的策略,并且,在对战学习过程中获取对战双方的对战结果,依照对战结果进行各自优势策略挑选,并将挑选出的优势策略用于后续对应策略群体的进化,以此往复循环,使对战双方策略模型对应的策略群不断有优势策略注入,这样不仅可以将己方智能体得到进化策略训练,同时也可以使对战方智能体得到进化策略训练,提升了博弈学习网络中策略模型的进化程度上限,使策略模型对策略多样的博弈场景适应性更强。

Patent Agency Ranking