一种多模态哈希检索方法及装置

    公开(公告)号:CN115982403A

    公开(公告)日:2023-04-18

    申请号:CN202310085564.9

    申请日:2023-01-12

    Abstract: 本发明公开了一种多模态哈希检索方法及装置,该方法包括:获取带有标签的训练数据集;构建带有Transformer Encoder模块的多模态神经网络;根据所述训练数据集中的每个多模态数据经过所述多模态神经网络生成的哈希码与该多模态数据对应的标签,设计目标损失函数;根据所述目标损失函数,采用梯度下降法更新所述多模态神经网络的参数,以训练所述多模态神经网络;获取多模态原始数据并对所述多模态原始数据进行特征工程加工;将加工后的多模态原始数据输入训练后的多模态神经网络中,生成多模态哈希码;利用所述多模态哈希码,进行哈希检索。该方法使用Transformer网络实现多模态特征融合,与单模态哈希表示学习相比,检索的平均准确率(mAP)更高。

    一种多模态哈希检索方法及装置

    公开(公告)号:CN115982403B

    公开(公告)日:2024-02-02

    申请号:CN202310085564.9

    申请日:2023-01-12

    Abstract: 本发明公开了一种多模态哈希检索方法及装置,该方法包括:获取带有标签的训练数据集;构建带有Transformer Encoder模块的多模态神经网络;根据所述训练数据集中的每个多模态数据经过所述多模态神经网络生成的哈希码与该多模态数据对应的标签,设计目标损失函数;根据所述目标损失函数,采用梯度下降法更新所述多模态神经网络的参数,以训练所述多模态神经网络;获取多模态原始数据并对所述多模态原始数据进行特征工程加工;将加工后的多模态原始数据输入训练后的多模态神经网络中,生成多模态哈希码;利用所述多模态哈希码,进行哈希检索。该方法使用Transformer网络实现多模态特征融合,与单模态哈希表示学习相比,检索的平均准确率(mAP)更高。

    一种文本生成模型的训练方法、装置、介质及电子设备

    公开(公告)号:CN116628198A

    公开(公告)日:2023-08-22

    申请号:CN202310515566.7

    申请日:2023-05-08

    Abstract: 本说明书公开了一种文本生成模型的训练方法、装置、介质及电子设备,包括:先将从通用文本数据集中确定出的原始文本输入预先训练的类型识别模型,确定原始文本的模板标注。再根据模板标注,确定模板标注对应的目标模板。然后,根据原始文本、模板标注以及目标模板,生成训练文本生成模型的训练样本,将输入部分输入待训练的文本生成模型,得到输出文本,以样本标注与输出文本之间的差异最小为训练目标,对待训练的文本生成模型进行训练,增加了训练文本生成模型的训练样本,使得可以在训练样本较少的情况下,训练文本生成模型,使得文本生成模型训练效果好,提高文本生成模型的输出文本的准确性。

    一种基于中心相似度学习的哈希码生成方法及装置

    公开(公告)号:CN114896434B

    公开(公告)日:2022-11-18

    申请号:CN202210821230.9

    申请日:2022-07-13

    Abstract: 本发明公开了一种基于中心相似度学习的哈希码生成方法及装置,该方法包括:获取带有标签的训练数据集;利用哈达玛矩阵,为所述训练数据集中相同标签的数据构造一个共享的哈希中心,从而得到若干哈希中心;根据所述训练数据集中的样本经过多模态神经网络生成的哈希码与该数据对应的哈希中心之间的距离,计算得到中心相似性学习的目标损失函数;根据所述中心相似性学习的目标损失函数,训练多模态神经网络;获取多模态数据并对所述多模态数据进行预处理;将预处理后的多模态数据输入训练后的多模态神经网络中,生成多模态哈希码。

    一种加密图的邻居节点查询方法及装置、电子设备

    公开(公告)号:CN114417073B

    公开(公告)日:2022-08-05

    申请号:CN202210309856.1

    申请日:2022-03-28

    Abstract: 本发明公开了一种加密图的邻居节点查询方法及装置、电子设备,该方法包括:提取每个节点的邻居节点,生成邻居节点表;根据邻居节点表和生成的密钥组,生成加密索引字典;对加密索引字典进行扩充,将扩充索引字典发送至云服务器以使得云服务器对扩充索引字典进行存储;接收用户端的关于目标节点的查询请求;根据查询请求和密钥组,生成目标节点的查询令牌;向用户端发送查询令牌和密钥组,以使得用户端向云服务器发送查询令牌,云服务器根据查询令牌和扩充索引字典,对目标节点的邻居节点进行查询,将查询结果发送至用户端,用户端根据密钥组对查询结果进行解密,从而得到目标节点的明文查询结果。该方法可实现top‑H跳邻居节点和top‑k邻居节点的查询。

    面向DFS的全局聚合命名空间下跨计算节点的持久性缓存方法和装置

    公开(公告)号:CN116436962A

    公开(公告)日:2023-07-14

    申请号:CN202310376290.9

    申请日:2023-03-31

    Abstract: 面向DFS的全局聚合命名空间下跨计算节点的持久性缓存方法,包括:所有计算节点能按需访问存储在宿主计算节点、远端计算节点或数据存储服务器的任意文件;计算节点根据任务需求和元数据服务器给出的文件布局信息,通过策略引擎预设的缓存预取策略,反向使用条带化技术,根据缓存类型需求,将相关文件从数据存储服务器端复制或迁移到相应的多个计算节点本地持久性缓存设备;当缓存在多个计算节点的数据满足预设条件时,通过策略引擎预设的缓存替换或驱逐策略,将对相关计算节点端数据进行替换或驱逐到数据存储服务器端;根据待操作的相关文件是否已经缓存到对应计算节点本地持久性存储器中的情形,协同完成相关操作。

    一种针对未配对数据集的图像生成方法及装置

    公开(公告)号:CN114758035A

    公开(公告)日:2022-07-15

    申请号:CN202210661703.3

    申请日:2022-06-13

    Abstract: 本发明公开了一种针对未配对数据集的图像生成方法及装置,该方法包括:对第一模型和第二模型进行改进,其中所述第二模型包括第一子模型和第二子模型;将两组内部具有相同数据分布的未配对数据集作为改进后的第一模型的输入,训练改进后的第一模型,并通过改进后的第一模型训练完成后输出的两组配对数据集分别训练改进后的第一子模型和第二子模型;获取未配对数据集;将所述未配对数据集输入训练后的第一模型后,得到所述第一模型生成的第一生成数据集和第二生成数据集;将所述第一生成数据集和第二生成数据集分别输入训练后的第一子模型和第二子模型,并将所述第一子模型和第二子模型生成的第三生成数据集和第四生成数据集作为最终生成结果。

Patent Agency Ranking