-
公开(公告)号:CN110610230A
公开(公告)日:2019-12-24
申请号:CN201910698120.6
申请日:2019-07-31
Applicant: 国家计算机网络与信息安全管理中心
Abstract: 本发明公开了一种台标检测方法、装置及可读存储介质,该方法包括如下步骤:获取台标数据集,并对所述台标数据集进行分组获得台标训练集;构建多损失融合的孪生神经网络,并基于所述台标训练集对所构建的多损失融合的孪生神经网络进行训练获得训练后的多损失融合的孪生神经网络;通过所述训练后的多损失融合的孪生神经网络对待测台标进行检测。本发明方法通过构建孪生神经网络框架,很好地消除了样本数量不足对训练网络带来的影响,可以更好地检测未知的新的种类的敏感台标。
-
公开(公告)号:CN109471932A
公开(公告)日:2019-03-15
申请号:CN201811415780.0
申请日:2018-11-26
Applicant: 国家计算机网络与信息安全管理中心
IPC: G06F16/332 , G06F16/35 , G06F17/27 , G06N3/08
Abstract: 本发明公开了一种基于学习模型的谣言检测方法、系统及存储介质,其中检测方法包括:构建新闻语料库;构建博文语料库;对新闻语料库中的数据进行模型训练,获得第一分类器模型;对博文语料库中的数据进行特征提取,获得训练特征,利用训练特征进行模型训练获得第二分类器模型;利用第一分类器模型和第二分类器模型对社交平台中的博文数据进行谣言检测。本发明通过对新闻数据中的谣言和非谣言数据进行采集构建新闻语料库,再进行模型训练获得第一训练模型;再对社交平台中的谣言和非谣言数据进行采集构建博文语料库,再进行模型训练获得第二训练模型,最后利用两个训练模型对社交平台中的数据进行谣言检测,使最终的检测结果更加准确可靠。
-
公开(公告)号:CN108921087A
公开(公告)日:2018-11-30
申请号:CN201810699566.6
申请日:2018-06-29
Applicant: 国家计算机网络与信息安全管理中心 , 中国科学院自动化研究所
IPC: G06K9/00
Abstract: 本发明涉及计算机视觉技术领域,具体涉及一种视频理解方法,旨在解决如何有效提取视频的密集帧特征和长期时空特征的技术问题。为此目的,本发明提供的视频理解方法首先利用残差网络获取目标视频的视频帧组,然后利用时序关系网络并根据多个视频帧组生成视频的时序关系特征,最后根据时序关系特征预测目标视频的视频行为类别。其中,视频帧组包括两个有序视频帧,每个有序视频帧均包括多个按照时间顺序依次排列的视频帧。基于上述步骤,能够有效获取到目标视频的密集帧特征和长期时空特征,进而可以快速且准确地预测出目标视频的视频行为类别。
-
公开(公告)号:CN106937363A
公开(公告)日:2017-07-07
申请号:CN201710157202.0
申请日:2017-03-16
Applicant: 国家计算机网络与信息安全管理中心
Abstract: 本发明提供一种终端接入网络的方法及装置,用于解决现有技术中移动网络控制机制不能高效支持共享网络切片的服务机制的问题。该方法包括:在对终端进行附着鉴权时,请求获取终端的网络切片签约信息,签约信息中包括终端被授权接入的服务网络的身份标识ID;在终端发起建立连接请求后,根据建立连接请求以及签约信息为终端选择目标服务网络。该方案提高了终端与网络的连接效率。
-
公开(公告)号:CN105912716A
公开(公告)日:2016-08-31
申请号:CN201610285420.8
申请日:2016-04-29
Applicant: 国家计算机网络与信息安全管理中心
Abstract: 本发明公开了一种短文本分类方法及装置。该方法包括:对待分类的短文本进行分词预处理,并获取分词得到的每个词语的扩展词;根据预先构建的词项集获取每个词语及其扩展词的权重值;根据权重值,利用多个类别SVM分类模型获取短文本所属每个类别的概率;根据预设的概率分类模型确定短文本的所属类别。本发明所提供的短分本分类方法,克服了短文本特征稀疏的问题,有效降低采用多分类模型的复杂度,更符合实际应用。
-
公开(公告)号:CN105846982A
公开(公告)日:2016-08-10
申请号:CN201610285419.5
申请日:2016-04-29
Applicant: 国家计算机网络与信息安全管理中心
CPC classification number: H04L5/0055 , G06F21/602 , H04L1/0061 , H04L1/1657 , H04L1/1806 , H04L63/0428 , H04L69/164
Abstract: 本发明提出了一种跨域传输的方法,该方法包括:在发送终端,按顺序对每个待发送信息进行编号,并对经过编号的每个待发送信息进行分解得到多个数据包,并按顺序为每个数据包编号;为任一待发送信息中的首个数据包添加包头信息,为所述任一待发送信息中的其他数据包添加编号信息;将经过编号的待发送信息中的数据包通过用户数据报协议UDP传输至接收终端。在接收终端,接收发送终端传输来的数据包,并按照所述数据包的包头信息或编号信息对所述数据包进行重组,形成接收信息。该方法能够减少数据反馈量、提高传输速率、增强可靠性。
-
公开(公告)号:CN119598054A
公开(公告)日:2025-03-11
申请号:CN202510143768.2
申请日:2025-02-10
Applicant: 国家计算机网络与信息安全管理中心
IPC: G06F16/958 , G06V30/19
Abstract: 本发明涉及人工智能技术领域,提供一种网站类型识别方法、装置、电子设备和存储介质,其中方法包括:获取待识别网站的网址,并基于所述待识别网站的网址,获取所述待识别网站内所有的待分类图像;基于特征提取模型,对各待分类图像进行特征提取,得到所述各待分类图像的图像特征;基于文本特征库中的各文本特征和所述各待分类图像的图像特征,确定所述各待分类图像的类别;基于所述各待分类图像的类别,确定所述待识别网站的类型。本发明通过结合图像特征和文本特征,实现了基于图像和文本描述的多模态特征的检索式分类判断,可以有效提高网站类型识别的准确率。
-
公开(公告)号:CN118520929B
公开(公告)日:2024-10-29
申请号:CN202411003497.2
申请日:2024-07-25
Applicant: 国家计算机网络与信息安全管理中心
IPC: G06N3/09 , G06N3/0455 , G06F40/194
Abstract: 本发明提供一种文本相似度确定模型的训练方法及文本相似度计算方法,属于计算机技术领域,该训练方法包括:获取第一数据集和第二数据集;第一数据集中包括至少一个短文本数据对;第二数据集中包括至少一个目标文本数据对,目标文本数据对中的两个目标文本数据至少一个为长文本数据;基于句向量对比模型,获取第二数据集中各目标文本数据的关键表述;句向量对比模型是基于第一数据集和第一损失函数对第一预训练模型训练得到的;基于各关键表述和第二损失函数,对第二预训练模型进行训练,得到文本相似性确定模型。通过在判定过程中引入短文本和长文本,提升了文本相似度确定模型输出结果的准确性。
-
公开(公告)号:CN115080871B
公开(公告)日:2024-05-17
申请号:CN202210847062.0
申请日:2022-07-07
Applicant: 国家计算机网络与信息安全管理中心
IPC: G06F16/9536 , G06F16/901 , G06N3/0464 , G06N3/042 , G06N3/045 , G06N3/08 , G06Q50/00
Abstract: 本发明公开了一种跨社交网络社交用户对齐方法,涉及社交网络的用户关系挖掘领域。本发明为了解决现有社交用户对齐方法不能跨社交网络、计算精度低、对齐效率低的缺陷,采用如下步骤实现:采集社交网络的用户属性信息,构建用户关系拓扑图;根据边权重和节点的出入度计算节点权重;构建一阶近邻关系模型和二阶近邻关系模型,确定一阶邻居节点和二阶邻居节点,得到用户节点之间的相互关系;构建社交对齐神经网络,通过社交对齐神经网络对用户关系拓扑图中各节点进行邻居节点的信息聚合、拼接与非线性变换,得到跨社交网络的社交用户身份对齐结果。本发明主要用于通过跨社交网络对其社交用户实现用户关系挖掘。
-
公开(公告)号:CN117251524A
公开(公告)日:2023-12-19
申请号:CN202310446513.4
申请日:2023-04-24
Applicant: 国家计算机网络与信息安全管理中心 , 讯飞智元信息科技有限公司
IPC: G06F16/33 , G06F16/35 , G06F40/289 , G06F40/30 , G06F18/2431 , G06F18/2415 , G06F18/214 , G06N3/0455 , G06N3/0464 , G06N3/047 , G06N3/084
Abstract: 本发明公开了一种基于多策略融合的短文本分类方法,属于自然语言处理领域,主要涉及深度神经网络、数据增强以及文本分类。该方法包括如下步骤:通过数据预处理剔除噪声数据、基于词性标注关键词进行分类,基于数据增强的文本分类,最终通过多策略融合设置相应的阈值门限获取网络短文本数据标签。本发明通过提出一种基于多策略融合的短文本分类的解决方法,从而提升短文本数据分类的效果,进而提升业务人员发现相关短文本数据精准度和业务效率。
-
-
-
-
-
-
-
-
-