基于学习模型的谣言检测方法、系统及存储介质

    公开(公告)号:CN109471932A

    公开(公告)日:2019-03-15

    申请号:CN201811415780.0

    申请日:2018-11-26

    Abstract: 本发明公开了一种基于学习模型的谣言检测方法、系统及存储介质,其中检测方法包括:构建新闻语料库;构建博文语料库;对新闻语料库中的数据进行模型训练,获得第一分类器模型;对博文语料库中的数据进行特征提取,获得训练特征,利用训练特征进行模型训练获得第二分类器模型;利用第一分类器模型和第二分类器模型对社交平台中的博文数据进行谣言检测。本发明通过对新闻数据中的谣言和非谣言数据进行采集构建新闻语料库,再进行模型训练获得第一训练模型;再对社交平台中的谣言和非谣言数据进行采集构建博文语料库,再进行模型训练获得第二训练模型,最后利用两个训练模型对社交平台中的数据进行谣言检测,使最终的检测结果更加准确可靠。

    一种采用SURF特征和颜色特征相融合的刚体目标跟踪方法

    公开(公告)号:CN106934395A

    公开(公告)日:2017-07-07

    申请号:CN201710080987.6

    申请日:2017-02-15

    Abstract: 本发明涉及一种采用SURF特征和颜色特征相融合的刚体目标跟踪方法。该方法包括:1)在初始图像中选定目标区域,在目标区域内提取SURF特征并建立SURF特征描述;2)在每一个以SURF特征点为中心的局部邻域内构建颜色特征;3)在当前图像到来时,首先利用颜色特征寻找初步的目标区域,之后提取SURF特征并与初始图像建立基于特征的匹配,形成匹配点对;4)根据得到的匹配点对计算得出运动参数,从而确定当前图像的目标区域,实现目标跟踪。本发明能够对目标区域的局部特征实现准确的描述和匹配,进而保证目标跟踪效果的鲁棒性、稳定性。

    一种局部特征与词袋模型相结合的刚体目标跟踪方法

    公开(公告)号:CN106897721A

    公开(公告)日:2017-06-27

    申请号:CN201710058219.0

    申请日:2017-01-23

    CPC classification number: G06K9/3233 G06K9/4609 G06K9/6267

    Abstract: 本发明涉及一种局部特征与词袋模型相结合的刚体目标跟踪方法。该方法包括:1)在初始图像中选定感兴趣的目标区域,并在目标区域检测SURF特征;2)为SURF特征构建分类器;3)将词袋模型与局部特征结合,对每个SURF特征点用视觉单词来表达,形成2维尺度旋转不变空间;4)在当前图像到来时,基于SURF特征实现分类器的自适应匹配,并使用2维尺度旋转不变空间内的视觉单词进行协同匹配,形成匹配点对;5)根据得到的匹配点对计算得出运动参数,从而确定当前图像的目标区域,实现目标跟踪。本发明能够对目标区域的局部特征实现准确的描述和匹配,进而保证目标跟踪效果的鲁棒性、稳定性。

    一种基于多语义特征融合的文本分类方法和装置

    公开(公告)号:CN117271765A

    公开(公告)日:2023-12-22

    申请号:CN202311059507.X

    申请日:2023-08-22

    Abstract: 本发明公开了一种基于多语义特征融合的文本分类方法及装置,所述方法包括:获取待分类的文本,将所述待分类的文本进行预处理,得到处理后的文本;将词级粒度向量输入训练完毕的词级语义特征提取模型,得到词级语义特征;将句子级粒度向量输入训练完毕的句子级语义特征提取模型,得到句子级语义特征;基于文章级向量对所述处理后的文本进行特征提取,得到文本级语义特征;将所述词级语义特征、句子级语义特征以及文本级语义特征进行特征拼接融合,得到融合后特征,使用分类器对所述融合后特征进行分类。本方法从词粒度、句子粒度和文章粒度等多个层面对文本进行精细语义建模,利用文本的多语义融合特征进行文本分类,提高了文本分类的准确率。

    基于高斯混合模型的刚体目标在线特征分类与跟踪方法

    公开(公告)号:CN106778831B

    公开(公告)日:2020-04-24

    申请号:CN201611064798.1

    申请日:2016-11-28

    Abstract: 本发明涉及一种基于高斯混合模型的刚体目标在线特征分类与跟踪方法。该方法包括以下步骤:1)在初始图像中选定感兴趣的目标区域,并在目标区域检测SURF特征;2)为每个SURF特征创建分类器;3)在新图像到来时,利用分类器对初始图像中的SURF特征与新图像检测到的SURF特征进行匹配,形成匹配点对;在分类器的匹配过程中,采用基于高斯混合模型的在线分类机制判别正样本和负样本;4)根据匹配点对,采用随机采样一致性算法计算得出运动参数,从而确定当前图像的目标区域,实现目标跟踪。本发明能够应对视频中复杂的场景变化,保证跟踪的自适应能力,实现稳定连续、现实可用的目标跟踪。

    一种事件类型识别方法及装置

    公开(公告)号:CN106095928B

    公开(公告)日:2019-10-29

    申请号:CN201610409465.1

    申请日:2016-06-12

    Abstract: 本发明公开了一种事件类型识别方法及装置。该方法包括以下步骤:对训练集中所有文本进行分词、提取词性处理后训练词向量空间模型,提取文本的特征,将文本表示为特征向量;对于训练集进行事件类型聚类,训练带有类型聚类正则化项的神经网络模型;对于测试样本同样进行分析、提取词性处理,并利用已经训练好的词向量模型,得到特征表示;利用类型聚类正则化项的神经网络模型进行事件类别识别。借助于本发明的技术方案,能够利用同一群组中的类型共享信息来减轻标注数据不平衡带来的问题。

    一种密码破解方法和装置
    30.
    发明公开

    公开(公告)号:CN107491689A

    公开(公告)日:2017-12-19

    申请号:CN201710560788.5

    申请日:2017-07-11

    Abstract: 本发明公开了一种密码破解方法和装置,方法包括:CPU按照预设分析规则将待破解密码拆分为由掩码和子字符串组成的形式,并为掩码和子字符串分别生成对应的密码口令空间,将子字符串的密码口令空间划分给一个或多个GPU;一个或多个GPU均根据被划分到的子字符串生成一个密码口令子空间,均根据各自生成的密码口令子空间与掩码进行排列组合,生成完整密码口令空间,并使用完整密码口令空间对待破解密码进行破解。本发明的密码破解方法可以明显减少待破解密码产生的排列组合的数量,并由CPU和GPU协同计算,对密码排列组合产生的空间进行划分,提高了密码破解的效率,解决了现有技术的问题。

Patent Agency Ranking