-
公开(公告)号:CN115186204A
公开(公告)日:2022-10-14
申请号:CN202210639735.3
申请日:2022-06-08
Applicant: 国家计算机网络与信息安全管理中心
IPC: G06F16/955 , G06F16/906
Abstract: 本发明属于通讯领域,公开了一种链接去重方法、装置、设备及存储介质。该方法包括:获取待下载链接,对所述待下载链接进行格式化,获得格式化链接;将所述格式化链接与预设链接模式库中存放的链接模板进行匹配,获得匹配结果;根据匹配结果判断是否对所述格式化链接进行去重操作。由于本发明是将格式化链接与预设链接模式库中存放的链接模板进行匹配,获得匹配结果;根据匹配结果判断是否对格式化链接进行去重操作。相对于现有的接收到下载链接直接进行资源下载的方式,本发明上述方式能够对下载链接进行去重操作,减少资源的重复下载,保证下载资源的质量。
-
公开(公告)号:CN115345181A
公开(公告)日:2022-11-15
申请号:CN202210786892.7
申请日:2022-07-04
Applicant: 中国科学院自动化研究所 , 国家计算机网络与信息安全管理中心
IPC: G06F40/58 , G06F16/36 , G06F40/211 , G06F40/295 , G06N3/04 , G06N3/08
Abstract: 本发明提供一种神经机器翻译模型的训练方法、翻译方法及装置,所述训练方法包括:构建神经机器翻译模型;将双语平行句对中的源语言句子和目标语言句子,以及知识图谱中每个三元组中的头实体和尾实体进行细粒度切分,得到标准源语言句子序列、标准目标语言句子序列以及知识图谱中每个三元组中的标准头实体‑关系序列和标准尾实体序列;将其输入编解码模块中预测得到目标语言句子序列以及尾实体序列;基于标准目标语言句子序列和预测的目标语言句子序列之间的交叉熵,以及知识图谱中每个三元组中的标准尾实体序列与预测的尾实体序列之间的交叉熵,共同训练该模型。本发明能够有效融合细粒度知识推断,提升神经机器翻译对于实体的翻译质量。
-