-
公开(公告)号:CN119990247A
公开(公告)日:2025-05-13
申请号:CN202411858538.6
申请日:2024-12-17
Applicant: 上海交通大学
IPC: G06N3/094 , G06N3/045 , G06N3/0475 , G06N3/047 , G06N3/09 , G06N3/0464 , G06V10/82 , G06T11/00
Abstract: 本发明涉及一种基于引导采样提高生成对抗网络生成图像质量的方法及系统其中方法包括以下步骤:获取图像训练集,以及图像训练集中的图像对应的类别或文本标签信息,将图像和其对应的标签信息配对成 的形式,构建图像标签训练集;利用图像标签训练集训练生成对抗网络,所述生成对抗网络包括生成器和判别器,在生成对抗网络训练过程中通过概率调整训练数据标签的类别,并引入生成器和判别器的共同归一化损失函数进行参数更新;获取潜在向量,基于引导采样算法生成中间变量,作为训练好的生成对抗网络的输入,利用训练后的生成对抗网络生成高质量合成图像。与现有技术相比,本发明具有训练稳定、图像生成效果好等优点。
-
公开(公告)号:CN119904540A
公开(公告)日:2025-04-29
申请号:CN202411836972.4
申请日:2024-12-13
Applicant: 上海交通大学
IPC: G06T11/00 , G06N3/047 , G06V10/44 , G06N3/0464 , G06N3/084
Abstract: 本发明涉及一种基于扩散概率模型的图像生成方法、电子设备、存储介质,利用预训练好的扩散概率模型生成图像,扩散概率模型的训练过程包括如下步骤:获取原始训练样本,利用图像特征提取网络提取得到图像特征向量;基于所述图像特征向量,利用带温度的softmax层得到类别向量;基于随机采样的噪声等级,对所述原始训练样本进行加噪,得到加噪训练样本;基于所述加噪训练样本、所述噪声等级和所述类别向量,利用去噪神经网络得到预测样本;基于所述原始训练样本和预测样本,通过计算训练误差,更新所述图像特征提取网络和所述去噪神经网络,实现扩散概率模型的训练。与现有技术相比,本发明具有生成图片与特定类别的特性更加匹配等优点。
-
公开(公告)号:CN112717415B
公开(公告)日:2022-08-16
申请号:CN202110091260.4
申请日:2021-01-22
Applicant: 上海交通大学
Abstract: 本发明涉及一种基于信息瓶颈理论的强化学习对战游戏AI训练方法,包括以下步骤:1)AI训练模型的初始化;2)通过游戏AI在仿真环境中进行决策交互得到样本训练批数据集;3)根据游戏AI与环境交互得到的样本训练批数据集,采用强化学习算法迭代训练AI训练模型,并分阶段保存AI训练模型的参数;4)将保存的不同阶段AI训练模型的部分参数固定,利用强化学习算法重新训练余下参数进行微调,得到最终不同等级AI的AI训练模型,并由此生成对战游戏AI文件。与现有技术相比,本发明具有采样效率高、训练速度快、测试灵活性高、AI分等级等优点。
-
公开(公告)号:CN112733004A
公开(公告)日:2021-04-30
申请号:CN202110091259.1
申请日:2021-01-22
Applicant: 上海交通大学
IPC: G06F16/9532 , G06N3/04
Abstract: 本发明涉及一种基于多臂老虎机算法的影视作品推荐方法,包括以下步骤:1)获取每个影视作品和当前待推荐用户的特征表示,获得初始的作品聚类和用户聚类;2)遍历所有影视作品,计算对应的预估计回报,选取预估计回报最大的推荐给待推荐用户;3)待推荐用户在接收到推荐后,做出真实反馈;4)基于用户真实反馈更新聚类和预估计回报模型,调整模型中部分超参数,并重新推荐。与现有技术相比,本发明能够较好的平衡推荐方法中的EE问题以及解决推荐方法冷启动问题,具有收敛速度快、推荐精准有效的优点。
-
公开(公告)号:CN119904541A
公开(公告)日:2025-04-29
申请号:CN202411836974.3
申请日:2024-12-13
Applicant: 上海交通大学
IPC: G06T11/00 , G06N3/0455 , G06V10/44 , G06N3/0464 , G06N3/047 , G06N3/084
Abstract: 本发明涉及一种基于多条件控制扩散模型的图像生成方法和电子设备,包括如下步骤:步骤S1,获取图像训练集,针对其中每个图像数据,提取图像的多个条件,构建训练样本;步骤S2,基于所述训练样本,以最小化变分自编码器预测得到的预测条件与实际条件之间的区别为目标,对变分自编码器进行训练;步骤S3,随机选取一个或多个条件作为子集,利用所述变分自编码器计算子集对应的编码特征,基于所述编码特征以及加噪后的图像数据,以最小化预测的噪声和真实的噪声之间的差别为目标,对扩散模型进行训练;步骤S4,利用训练后的扩散模型实现图像生成。与现有技术相比,本发明具有有效管理和整合多个输入条件、有效管理条件冲突等优点。
-
公开(公告)号:CN112733004B
公开(公告)日:2022-09-30
申请号:CN202110091259.1
申请日:2021-01-22
Applicant: 上海交通大学
IPC: G06F16/9532 , G06N3/04
Abstract: 本发明涉及一种基于多臂老虎机算法的影视作品推荐方法,包括以下步骤:1)获取每个影视作品和当前待推荐用户的特征表示,获得初始的作品聚类和用户聚类;2)遍历所有影视作品,计算对应的预估计回报,选取预估计回报最大的推荐给待推荐用户;3)待推荐用户在接收到推荐后,做出真实反馈;4)基于用户真实反馈更新聚类和预估计回报模型,调整模型中部分超参数,并重新推荐。与现有技术相比,本发明能够较好的平衡推荐方法中的EE问题以及解决推荐方法冷启动问题,具有收敛速度快、推荐精准有效的优点。
-
公开(公告)号:CN112717415A
公开(公告)日:2021-04-30
申请号:CN202110091260.4
申请日:2021-01-22
Applicant: 上海交通大学
Abstract: 本发明涉及一种基于信息瓶颈理论的强化学习对战游戏AI训练方法,包括以下步骤:1)AI训练模型的初始化;2)通过游戏AI在仿真环境中进行决策交互得到样本训练批数据集;3)根据游戏AI与环境交互得到的样本训练批数据集,采用强化学习算法迭代训练AI训练模型,并分阶段保存AI训练模型的参数;4)将保存的不同阶段AI训练模型的部分参数固定,利用强化学习算法重新训练余下参数进行微调,得到最终不同等级AI的AI训练模型,并由此生成对战游戏AI文件。与现有技术相比,本发明具有采样效率高、训练速度快、测试灵活性高、AI分等级等优点。
-
公开(公告)号:CN112691383A
公开(公告)日:2021-04-23
申请号:CN202110048898.X
申请日:2021-01-14
Applicant: 上海交通大学
Abstract: 本发明涉及一种基于虚拟遗憾最小化算法的德州扑克AI训练方法,包括以下步骤:1)获取私人手牌信息和游戏展示信息,进行游戏特征抽象;2)基于玩家历史游戏日志,建立针对该玩家的策略预测神经网络模型;3)采用虚拟遗憾最小化算法以玩家的策略预测神经网络模型为对手训练并得到AI行为策略;4)采用训练得到的AI行为策略与游戏玩家进行实时对局,并再结束后进行比赛记录。与现有技术相比,本发明通过引入游戏信息抽象嵌入,将遗憾匹配机制和局部最小遗憾值计算方法整合到遗憾最小化算法中,具有提高计算效率和实际对局胜率的优点。
-
-
-
-
-
-
-