-
公开(公告)号:CN116384321A
公开(公告)日:2023-07-04
申请号:CN202310384336.1
申请日:2023-04-11
Applicant: 之江实验室
IPC: G06F30/394 , G06F30/392 , G06F30/398 , G06F30/27 , G06N3/048 , G06N3/092
Abstract: 一种基于深度强化学习的2.5D总体布线方法,包含:步骤1:压缩,将3D总体布线问题压缩为2D总体布线问题;步骤2:数据预处理,包括将多引脚线网按半周长模型升序排序,然后基于直角Steiner最小树算法做拆解,线网拆解的子网再排序。步骤3:基于深度强化学习针对步骤2获得的两引脚对数据点对点布线,获得2D的总体布线方案,若布线方案有溢出,输出拥塞信息;否则执行步骤4。步骤4:通过直角结构层分配技术基于2D的总体布线方案获得3D的总体布线方案。本发明还包括一种基于深度强化学习的2.5D总体布线系统。本发明将多层总体布线问题压缩后基于深度强化学习进行求解,再利用层分配技术获得3D总体布线方案,有效降低算力成本并提高总体布线性能。
-
公开(公告)号:CN116360790A
公开(公告)日:2023-06-30
申请号:CN202310274453.2
申请日:2023-03-15
Applicant: 之江实验室
Abstract: 本申请涉及一种基于虚拟机的代码编译方法、装置及执行方法、装置,其中,该基于虚拟机的代码编译方法包括:通过获取字节码中的代码块,判断代码块是否属于热点函数,若是,通过启发式编译对代码块进行编译获得第一代码;通过机器学习对代码块进行编译获得第二代码;对第一代码和第二代码进行性能评估,获得第三代码;将第三代码编译为本地代码;并将本地代码存储在预设寄存器中。通过本申请,解决了相关技术中存在传统的JIT编译方案通过解释执行的方式运行速度慢的问题,减少常用编译的代码块的反复执行的次数,省去了大量的调用和重新解释的过程,并且存放在寄存器中更可以提高执行速度,节省时间。
-
公开(公告)号:CN116303974A
公开(公告)日:2023-06-23
申请号:CN202310486966.X
申请日:2023-05-04
Applicant: 之江实验室
IPC: G06F16/332 , G06F40/35 , G06F18/214 , G06N20/20
Abstract: 本申请涉及一种基于目标生成式回应语言模型的回应方法和装置。其中,该方法包括:基于教育设备中的提示数据集,训练得到初始生成式提示语言模型和初始生成式回应语言模型;并利用评分模型对二者的预测结果进行评分;基于对评分值的加权计算结果,通过强化学习和对抗学习进一步训练初始生成式提示语言模型和初始生成式回应语言模型,得到目标生成式回应语言模型;将教育设备采集的待测文本数据输入目标生成式回应语言模型,目标生成式回应语言模型将待测文本数据与对话数据进行拼接,得到相应的回应。采用本方法能生成多样的新提示,并加强生成式提示语言模型和生成式回应语言模型之间的交互,从而进一步改善生成式语言模型的意料外行为问题。
-
公开(公告)号:CN115952008B
公开(公告)日:2023-06-16
申请号:CN202310247734.9
申请日:2023-03-15
Applicant: 之江实验室
Abstract: 本发明公开了一种服务器集群资源的统一调度方法和装置,该方法针对服务器资源调度的增量实时调度和全量碎片整理,合并简化了调度方法,实现了方法的复用;该方法包括以下步骤:获取当前时刻服务器集群状态的快照;根据快照,获取集群中的所有在运行的服务器集合,并根据优先级进行降序排列;依次遍历所排序的服务器集合,对每台服务器,通过弹射链和蒙特卡洛树搜索方法,依次判断所部署的容器是否可迁移至其它低优先级的服务器,并执行相应操作。本发明能获得完整的迁移路径和过程态,对服务器集群的资源进行整理,提高了资源的使用率,优化集群性能,降低功耗,助力实现数据中心的低碳节能、绿色环保的追求。
-
公开(公告)号:CN116204324A
公开(公告)日:2023-06-02
申请号:CN202310345473.4
申请日:2023-03-29
Applicant: 之江实验室
Abstract: 本说明书公开了一种任务执行的方法、装置、存储介质及电子设备。所述任务执行的方法包括:确定目标模型中的每个网络层对应的计算任务各计算设备对应的设备信息,针对每个网络层,根据执行该网络层对应计算任务时涉及的计算次数以及各计算设备的设备信息,确定通过各计算设备执行该网络层对应计算任务时所需的计算时长,根据计算时长、上一个网络层对应的计算设备与其他各计算设备之间的数据传输时长、该网络层的数据所需的内存空间以及各计算设备的剩余内存中的至少一种,确定该网络层对应的目标设备,在接收到各网络层对应计算任务的执行请求后通过各网络层对应的目标设备执行计算任务。
-
公开(公告)号:CN116069512A
公开(公告)日:2023-05-05
申请号:CN202310286991.3
申请日:2023-03-23
Applicant: 之江实验室
Abstract: 本发明提公开了一种基于强化学习的Serverless高效资源分配方法及系统,该方法是通过对尾延迟、决策频率以及资源效率关系的观察,在最小化无服务器系统的资源配置消耗的同时,保障设置的性能延迟目标。该方法充分利用高频率管理带来的资源高效管理优点,通过观察每个请求的状态,利用强化学习模型对处理请求的实例资源配置做出决策。针对函数工作流多阶段运行的特性并对决策模型的轻量化设计,使得高频率控制层隐藏了时间开销并降低了资源开销。本发明与最新的工作流任务调度系统作比较,提升了CPU利用率,并提供了99%的请求时延SLO(Service Level Objective,服务水平目标)保证,降低了端到端延迟方差。
-
公开(公告)号:CN115982403A
公开(公告)日:2023-04-18
申请号:CN202310085564.9
申请日:2023-01-12
Applicant: 之江实验室
IPC: G06F16/583 , G06F16/55 , G06F16/51 , G06V10/80 , G06V10/82 , G06V10/764 , G06N3/0464 , G06N3/0455 , G06N3/048 , G06N3/09
Abstract: 本发明公开了一种多模态哈希检索方法及装置,该方法包括:获取带有标签的训练数据集;构建带有Transformer Encoder模块的多模态神经网络;根据所述训练数据集中的每个多模态数据经过所述多模态神经网络生成的哈希码与该多模态数据对应的标签,设计目标损失函数;根据所述目标损失函数,采用梯度下降法更新所述多模态神经网络的参数,以训练所述多模态神经网络;获取多模态原始数据并对所述多模态原始数据进行特征工程加工;将加工后的多模态原始数据输入训练后的多模态神经网络中,生成多模态哈希码;利用所述多模态哈希码,进行哈希检索。该方法使用Transformer网络实现多模态特征融合,与单模态哈希表示学习相比,检索的平均准确率(mAP)更高。
-
公开(公告)号:CN115268936B
公开(公告)日:2022-12-27
申请号:CN202211177796.9
申请日:2022-09-27
Applicant: 之江实验室
Abstract: 本发明公开了一种用于计算图编译的优化方法及装置,包括以下步骤:步骤S1:将计算图转换为中间表示;步骤S2:分析依赖关系;步骤S3:构建工作栈;步骤S4:初始化为未激活状态;步骤S5:弹出栈顶节点元素,并更新当前轮迭代输入节点集合;步骤S6:将依赖所述步骤S5的栈顶节点的元素依次添加到栈顶位置,直到工作栈清空为止;步骤S7:采用位向量实现达到不动点状态的中间表示;步骤S8:为达到不动点状态的中间表示的节点包含的有效张量变量分配寄存器。本发明提供了一种解析所述中间表示节点动态地执行至不动点状态的方法,并且优化了为所述中间表示不动点状态下各节点所包含的张量变量分配空闲寄存器的实现方法,提升计算图在运行时的执行效率。
-
公开(公告)号:CN115268877A
公开(公告)日:2022-11-01
申请号:CN202211177798.8
申请日:2022-09-27
Applicant: 之江实验室
Abstract: 本发明公开了一种用于图计算并行执行的中间表示方法及装置,包括以下步骤:步骤S1:将神经网络编译为计算图;步骤S2:定义计算图中张量变量的分支状态;步骤S3:定义计算图中张量变量的数据依赖关系;步骤S4:定义计算图中张量变量的控制依赖关系;步骤S5:构建计算图中张量变量的数据依赖关系图;步骤S6:构建计算图中张量变量的控制依赖关系图;步骤S7:将控制依赖转换为数据依赖。本发明从全局角度分析计算图执行过程中计算图中不同分支线程的张量变量之间的依赖关系以及基于依赖关系推导全局计算图中可并行执行分支线程的并行计算方法,通过分析计算图执行过程中不同分支线程的张量变量之间的依赖关系,优化计算图的编译效率。
-
公开(公告)号:CN114595333A
公开(公告)日:2022-06-07
申请号:CN202210447550.2
申请日:2022-04-27
Applicant: 之江实验室
IPC: G06F16/35 , G06F40/169 , G06K9/62
Abstract: 本发明提供了一种用于舆情文本分析的半监督方法和装置,针对标注样本、未标注样本采用半监督方法提高舆情文本分析的分类准确率,首先获取舆情数据集,对数据集进行预处理;预处理后的样本使用数据增强算法生成数据增强样本;使类别标签无监督抽取聚类方式为数据集中未标注的样本生成类别标签;采用词向量隐语义空间,计算相似度与线性插值运算,运算结果生成相似度插值样本;构建最终训练样本集;采用半监督方法并使用预训练语言模型,输入最终训练样本集,对模型进行训练得到分类模型,使用分类模型对测试集预测得出分类结果。对比传统文本分类实验表明,使用该方法和装置在少量标注舆情样本、未标注舆情样本情况下提高舆情文本分类的准确率。
-
-
-
-
-
-
-
-
-