-
公开(公告)号:CN114358278B
公开(公告)日:2025-04-04
申请号:CN202111423212.7
申请日:2021-11-26
Applicant: 北京邮电大学 , 中国人民解放军32802部队
Abstract: 本公开提供一种神经网络模型的训练方法及装置。所述方法包括:获取与所述神经网络模型的攻击防御需求相应的原始数据集;利用所述原始数据集对所述神经网络模型进行预训练,以得到预训练模型;基于协方差矩阵自适应进化策略CMA‑ES,利用训练数据集对所述预训练模型进行补充训练,以得到目标模型。本公开提供的神经网络模型的训练方法及装置,利用基于协方差矩阵自适应进化策略的神经网络训练算法对神经网络进行补充训练,获得鲁棒神经网络模型,提高神经网络对抗防御的准确性和高效性,确保深度学习相关系统的安全性。
-
公开(公告)号:CN119722094A
公开(公告)日:2025-03-28
申请号:CN202411592442.X
申请日:2024-11-08
Applicant: 北京邮电大学
IPC: G06Q30/018 , G06N3/045 , G06N5/04 , G06F16/951 , G06F16/215 , G06F16/25 , G06F16/353
Abstract: 本公开提供一种诈骗信息识别方法、装置、电子设备、存储介质及程序产品,该方法包括:获取诈骗宣传描述信息;对诈骗宣传描述信息进行分析,得到分析结果;基于分析结果,构建提示词;基于第一大语言模型对提示词进行测试,得到测试结果,基于测试结果对提示词进行优化,得到优化后提示词;基于第二大语言模型对优化后提示词进行推理,生成诈骗信息样本;获取待识别信息,将待识别信息输入诈骗信息识别模型,得到诈骗信息识别模型输出的诈骗信息识别结果,其中,诈骗信息识别模型基于诈骗信息样本训练得到。本公开利用大语言模型实现诈骗样本的自动化生成,提升了反诈骗技术应对新型诈骗手段的效率性和准确性。
-
公开(公告)号:CN119719375A
公开(公告)日:2025-03-28
申请号:CN202411592434.5
申请日:2024-11-08
Applicant: 北京邮电大学
IPC: G06F16/353 , G06F40/30 , G06F40/216 , G06F40/284 , G06F40/289 , G06N3/045 , G06N3/0475 , G06N3/094
Abstract: 本公开提供一种基于自然语言处理的目标事件检测方法及相关设备。该方法包括:获取待检测事件的事件数据;基于训练好的目标事件模型对所述事件数据进行检测,确定所述待检测事件为目标事件;其中,训练好的所述目标事件模型基于关于目标事件的训练文本数据训练得到,包括:获取所述训练文本数据,所述训练文本数据标注有目标事件的事件类型和目标特征;对所述训练文本数据进行数据预处理和数据增强,得到增强文本数据;基于历史文本数据和所述增强文本数据对自然语言处理模型进行训练,得到训练好的所述目标事件模型。
-
公开(公告)号:CN114139533B
公开(公告)日:2024-07-09
申请号:CN202111480639.0
申请日:2021-12-06
Applicant: 北京邮电大学
IPC: G06F40/279 , G06F40/216 , G06F40/30 , G06N3/0464 , G06N3/08
Abstract: 一种面向中文小说领域的文本内容审核方法,包括:获取敏感词及所属类别,构建敏感词库;通过字符串匹配算法,检测待审核文本是否包含敏感词,如果是,则待审核文本是违规文本,且分类是敏感词所属类别,如果否,则继续下一步;设置多个违规分类标签,构建并训练小说文本内容审核模型,然后将待审核文本输入模型中,其工作流程如下:计算输入文本的语义特征向量和每个违规分类标签的信息特征向量,再计算输入文本和每个违规分类标签的相关语义特征向量,最后采用胶囊网络对相关语义特征向量聚类,根据顶层胶囊的每个违规分类标签的类别概率确定输入文本的分类。本发明属于信息技术领域,能实现中文小说文本内容自动审核,并提高审核准确率及效率。
-
公开(公告)号:CN117058703A
公开(公告)日:2023-11-14
申请号:CN202311064354.8
申请日:2023-08-23
Applicant: 北京邮电大学
IPC: G06V30/42 , G06V30/413 , G06V30/18 , G06V30/19 , G06V10/82 , G06V10/764 , G06V10/766 , G06T3/40 , G06N3/044 , G06N3/0442 , G06N3/045 , G06N3/0464 , G06N3/084
Abstract: 一种使用超分辨率技术的客票行程单识别系统,包括词条定位模块、超分辨率模块和文字识别模块;一种使用超分辨率技术的客票行程单识别方法,包括如下操作步骤:(1)将客票行程单图像输入到词条定位模块,检测出该客票行程单图像中包含词条的检测框坐标,依据该检测框坐标裁剪出包含词条的文字区域图像块,并给出文字区域图像块的类别;(2)超分辨率模块对词条定位模块输出的文字区域图像块进行超分辨率处理,得到文字区域图像块的清晰化版本;(3)文字识别模块进行文字识别,得到识别结果。
-
公开(公告)号:CN115438660A
公开(公告)日:2022-12-06
申请号:CN202211117850.0
申请日:2022-09-14
Applicant: 北京邮电大学
IPC: G06F40/284 , G06F40/157 , G06F16/35 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 一种中文歧义非标准词的识别与转化系统,包括如下模块:非标准词检测模块、歧义非标准词分类模块和非标准词规则转化模块;一种中文歧义非标准词的识别与转化方法,包括下列操作步骤:(1)将待检测文本输入到非标准词检测模块,输出所有的非标准词成分;(2)把没有歧义的非标准词输入到非标准词规则转化模块,转化为标准中文;(3)把有歧义的非标准词输入到歧义非标准词分类模块进行歧义类型的分类;(4)将该歧义非标准词及其歧义类型输入到非标准词规则转化模块,转化为标准中文。
-
公开(公告)号:CN112905648B
公开(公告)日:2022-09-20
申请号:CN202110157059.1
申请日:2021-02-04
Applicant: 北京邮电大学
IPC: G06F16/2457 , G06F16/2458 , G06N3/04 , G06N3/08
Abstract: 一种基于多任务学习的多目标推荐系统,包括用户多种行为序列获取模块、权重生成模块、GRU网络共享模块、SNR子网络路由模块、特征提取模块和多目标预测模块;一种基于多任务学习的多目标推荐方法,包括如下操作步骤:(1)根据用户与交互对象的交互行为,构建构造用户行为序列样本集合;(2)使用用户行为序列样本集合对系统进行训练;(3)保存训练好的系统最优模型,并通过系统最优模型计算并保存相关数据的最优值;(4)模型预测;(5)将得分最高的待推荐对象推荐至用户。
-
公开(公告)号:CN114677173A
公开(公告)日:2022-06-28
申请号:CN202210293313.5
申请日:2022-03-23
Applicant: 北京邮电大学
Abstract: 一种广告点击率预估系统,包括如下模块:特征嵌入模块、权重分配模块和网络集成模块;一种广告点击率预估方法,所述方法包括下列操作步骤:(1)将输入特征ID号输入到特征嵌入模块,得到嵌入特征;(2)将得到的嵌入特征输入到权重分配模块,得到每个嵌入特征对应的权重值;(3)把加权后的嵌入特征输入到网络集成模块,得到广告点击概率值;本发明的系统和方法解决了广告点击率预估结果不稳定的问题,同时在评价结果上也优于目前的方法,有利于离线评估和线上部署。
-
公开(公告)号:CN114360071A
公开(公告)日:2022-04-15
申请号:CN202210028558.5
申请日:2022-01-11
Applicant: 北京邮电大学
IPC: G06V40/30 , G06V10/764 , G06V10/82 , G06V10/80 , G06V10/776 , G06N3/04 , G06N3/08 , G06K9/62
Abstract: 基于人工智能实现离线手写签名验证的方法,针对离线场景下的手写签名验证问题,使用SVM以及孪生神经网络框架进行特征提取与结果分类,同时使用逆鉴别网络思想,对输入的签名图片进行像素反转,得到多组数据同时进行验证;本发明方法不仅使用了深度学习的方法,而且同时结合了机器学习的方法,使得本发明的方法可靠性和准确率更高。
-
公开(公告)号:CN114168952A
公开(公告)日:2022-03-11
申请号:CN202111242874.4
申请日:2021-10-25
Applicant: 北京邮电大学 , 中国电子科技集团公司第五十四研究所
Abstract: 本申请提供一种神经网络木马病毒防御方法、装置、电子设备及存储介质。该方法包括:获取目标网络的训练数据集,训练数据集包括有一定量的训练用图片;通过预先训练的有效区域筛选器对每个训练用图片进行筛选,以去除每个训练用图片中用于设置木马病毒的无效区域,得到筛选后的训练数据集;通过筛选后的训练数据集对目标网络进行训练。在进入目标网络之前筛选掉无效区域,隐藏在无效区域中的木马病毒无法进入到后续目标网络当中,有效地保护目标网络训练数据及目标网络的安全性。
-
-
-
-
-
-
-
-
-