一种网络语境的文本识别方法、装置及存储介质

    公开(公告)号:CN111581970B

    公开(公告)日:2023-01-24

    申请号:CN202010396183.9

    申请日:2020-05-12

    Abstract: 本发明提出了一种网络语境的文本识别方法、装置及存储介质,该方法包括:基于文本长窗口构建风格语义模型,基于文本短窗口构建偏旁级语义模型;使用网络语境的语料库基于风格语义模型向量模型和偏旁级语义模型训练得到网络语境的中文词向量模型;使用所述网络语境的中文词向量模型对输入的网络语境的文本进行识别并输出识别结果。本发明在分词时使用两个不同窗口,长窗口用于提取网络化风格的语义信息,文本短窗口用于提取不同细粒度的语义特征,在训练阶段将二者结合,获得更加准确的词向量表达,以提高网络语境的文本识别率,本发明优化了目标函数,使得模型训练速度加快,在训练时,还建立了部首转义的方法,从而提高了文本的识别率。

    一种基于多模态数据的社交关系分析方法、系统和存储介质

    公开(公告)号:CN115293920A

    公开(公告)日:2022-11-04

    申请号:CN202210971424.7

    申请日:2022-08-12

    Abstract: 本发明提出一种基于多模态数据的社交关系分析方法,包括:S1,提取人员的社交文本和社交图像信息,分别转换为文本特征和图像特征,并统计人员亲密度,基于人员亲密度构建人员社交网络图;S2,将文本特征和图像特征输入基于transformer的多模态融合模型,获得融合特征;S3,采用Si‑SCAN图聚类算法对人员社交网络图进行分析,获得社交关系聚类结果,其中,Si‑SCAN图聚类算法通过在SCAN算法基础上引入人员亲密度和融合特征信息构建。本发明基于文本、图像两个模态的信息对社交关系进行深入分析,通过多模态信息融合模型的设计,学习跨模态间的交互关系,生成多模态融合的图节点嵌入表征。通过图聚类分析,实现对社交网络的深层关系分析,能够有效发现潜在的社交关联。

    一种基于图像patch序损失的人脸鉴伪方法、系统及介质

    公开(公告)号:CN115147908A

    公开(公告)日:2022-10-04

    申请号:CN202210879588.7

    申请日:2022-07-25

    Abstract: 本申请提出了一种基于图像patch序损失的人脸鉴伪方法,包括:S1、获取包含训练图像及其标签信息的人像鉴伪数据集;S2、对所述人像鉴伪数据集进行数据处理,包括:对所述训练图像进行均匀切割并打乱所述训练图像的初始patch序列集合,得到所述训练图像的第一patch序列集合;对所述第一patch序列集合进行增强处理,得到第二patch序列集合;将不同所述训练图像的所述第一patch序列集合和所述第二patch序列集合中的patch块进行随机交换,从而得到处理后的人像鉴伪数据集;S3、利用所述处理后的人像鉴伪数据集训练得到神经网络分类模型;S4、将待检测图像输入到所述神经网络分类模型中。本申请的人像鉴伪方法极大的节约了训练成本和数据收集成本,并且具有较高的判别准确性。

    防御对抗样本攻击的图像分类方法、终端设备及存储介质

    公开(公告)号:CN113822328B

    公开(公告)日:2022-09-16

    申请号:CN202110894433.6

    申请日:2021-08-05

    Abstract: 本发明涉及防御对抗样本攻击的图像分类方法、终端设备及存储介质,该方法中包括:S1:采集原始图像和其对应的对抗样本;S2:构建图像分类模型,图像分类模型采用深度神经网络结构,并在深度神经网络中添加去噪模块,去噪模块包括非局部均值模块和自注意力机制模块;S3:将原始图片和对应的对抗样本混合后对图像分类模型进行训练;S4:采用训练后的图像分类模型对图像进行分类。本发明通过端到端的方式在卷积网络的中间层添加去噪模块来降低对抗图像的噪声扰动,去噪模块由非局部均值模块和自注意力机制模块相结合,能够达到去噪目的且能够与任意卷积层相衔接,从而提高模型的对抗鲁棒性,有效解决了对抗样本攻击深度学习系统存在的隐患。

    一种基于图连通的文本检测方法、终端设备及存储介质

    公开(公告)号:CN113807337B

    公开(公告)日:2022-09-06

    申请号:CN202110940583.6

    申请日:2021-08-17

    Abstract: 本发明涉及一种基于图连通的文本检测方法、终端设备及存储介质,该方法中包括:S1:采集具有单字符文本标注的图像组成训练集;S2:构建文字检测模型,通过训练集对模型进行训练;S3:将待处理图像输入训练后的文字检测模型中,剔除置信度较低的预测文本框后,将其他预测文本框组成集合B;S4:计算集合B中每两个预测文本框之间的第一参数GIoU和第二参数DHIoU;S5:将集合B中所有的预测文本框作为图节点构建无向图,若两节点之间满足GIoU小于第一阈值且DHIoU小于第二阈值,则设定两节点之间连通,否则不连通;S6:计算无向图的连通分量,并计算每个连通分量所包含节点的最小外接矩形,将最小外接矩形作为文本框。本发明能够快速的准确进行文本区域定位。

Patent Agency Ranking