基于大语言模型进行代码生成的跨模型协同调度方法

    公开(公告)号:CN119473245A

    公开(公告)日:2025-02-18

    申请号:CN202411448711.5

    申请日:2024-10-17

    Abstract: 本发明涉及一种基于大语言模型(Large Language Models,LLMs)进行代码生成的跨模型协同调度方法,属于人工智能和软件工程领域,包括以下步骤:S1:获取需求集R,并划分成N个子集;S2:在子集中依次提取需求并构建代码生成提示;S3:加载LLMs,分别将代码生成提示传入量化的LLMs,并行生成代码;S4:测试所生成代码的正确性,若检测到错误则构建诊断纠正提示;S5:使用LLMs根据诊断纠正提示诊断并纠正代码中的错误,得到诊断纠正的代码;S6:若代码未通过测试,则进行跨模型生成;S7:循环执行S2‑S6步骤直至处理完所有需求,最终得到成功通过测试用例的代码集和未通过测试用例的代码集;本发明充分挖掘不同LLMs的代码生成性能,提升跨模型协同的自动代码生成能力。

    一种融合变分自编码与混合计算的超高清图像生成方法

    公开(公告)号:CN116883245A

    公开(公告)日:2023-10-13

    申请号:CN202310969612.0

    申请日:2023-08-02

    Abstract: 本发明涉及一种融合变分自编码与混合计算的超高清图像生成方法,属于多媒体与计算机视觉技术领域,包括以下步骤:S1:加载图像生成模型至内存,获取图像生成模型参数信息;S2:设置编码器数据块划分尺寸,并选择偏好的编码计算方法,包括改进的快速编码计算、改进的精确编码计算和混合编码计算,计算方法可应用于多个变分自编码器模型中;S3:编码器根据选择的编码计算方法对图像进行编码计算,在编码计算中采用重定义的编码器前向传播函数;S4:解码器采用重定义的解码器前向传播函数,将接收到的编码数据进行多次全局上采样,并在每次采样后计算统计量,最终将得到的统计量应用于图像生成。

    一种基于上下文层级自注意力网络的话语情绪识别方法

    公开(公告)号:CN116306669A

    公开(公告)日:2023-06-23

    申请号:CN202310160965.6

    申请日:2023-02-22

    Abstract: 本发明属于自然语言处理技术领域,具体涉及一种基于上下文层级自注意力网络的话语情绪识别方法,包括获取单个话语的词向量;学习词向量上下文的隐层表征;计算上下文自注意力权重;特征融合与池化;形成话语向量;学习话语向量的上下文隐层表征;计算话语上下文自注意力权重;特征融合与全连接;话语情绪识别;模型训练和参数优化;本发明构建的全局上下文、深度上下文和全局深度上下文注意力方法能够从不同角度捕获上下文信息,并从词级、话语级两个维度来增强话语情绪识别模型的性能,因此本发明提出的模型性能在层级上下文表征上要优于大多数现有的话语情绪分类模型,在情绪准确率上有明显的提升效果。

Patent Agency Ranking