一种基于大模型的财税问答敏感信息识别的方法及系统

    公开(公告)号:CN120046608A

    公开(公告)日:2025-05-27

    申请号:CN202411928227.2

    申请日:2024-12-25

    Abstract: 本发明公开了一种基于大模型的财税问答敏感信息识别方法及系统,其中方法包括:获取财税提问数据,并对获取的所述财税提问数据进行处理;对经过处理的所述财税提问数据,通过建立的汉语拼音敏感词Trie树进行关键违禁词检测;当判断出所述财税提问数据不存在关键违禁词时,通过经过训练的财税大模型中的违规语义对违规敏感词进行检测;当所述财税大模型的输出中未检测出违规敏感词时,将所述财税提问数据输出至正常问答系统。本发明通过训练得到的财税大模型对财税违规导向问答进行筛查,本发明构造了汉语拼音敏感词Trie树以及通过训练大模型的语义理解能力提升检测效果,实现敏感文本的识别。

    一种数据分箱方法、装置、电子设备和存储介质

    公开(公告)号:CN117828639A

    公开(公告)日:2024-04-05

    申请号:CN202311862826.4

    申请日:2023-12-29

    Abstract: 本申请涉及数据处理技术领域,尤其涉及一种数据分箱方法、装置、电子设备和存储介质。方法包括:将各对象各自拥有的公钥分别发送至其他对象;对于每个对象,将当前对象作为目标对象,并在目标对象的个人公钥之外的其他公钥中选取一个目标公钥;基于目标公钥对各原始数据组进行同态加密,得到加密数据组;对各加密数据组中的各加密数据统一进行数据分箱;基于目标对象的加密数据在数据分箱结果中的位置,确定目标对象的各原始数据所对应的数据分箱子结果。由于本申请在获取某方的分箱子结果过程中,均是对加密数据进行数据处理,且加密所使用的公钥非自身公钥,使得各方均无法得知其他方数据的明文,又可以顺利完成数据分箱,保证数据安全性。

    一种纵向联邦学习模型的训练方法、装置及电子设备

    公开(公告)号:CN117574405A

    公开(公告)日:2024-02-20

    申请号:CN202311618653.1

    申请日:2023-11-30

    Abstract: 本申请涉及数据处理技术领域,尤其涉及一种纵向联邦学习模型的训练方法、装置及电子设备。该方法中,按照预设的排序规则确定自身是否为本轮训练过程中的虚拟融合节点和解密节点。在确定自身不为虚拟融合节点的情况下,按照预设节点排序规则以及配置参数确定用于加密参数集合的公钥,采用公钥加密参数集合得到密文,并向虚拟融合节点发送密文。在确定自身为虚拟融合节点的情况下,基于设置的融合规则对多个密文进行密文融合得到第一密文,并向解密节点发送第一密文。在确定自身为解密节点的情况下,采用私钥解密第一密文得到中间参数,并向各节点发送中间参数进行下一轮模型训练。上述方案,提升了纵向联邦学习模型训练的安全性。

    一种基于大模型FAQ抽取的数电票智能问答方法及系统

    公开(公告)号:CN120030113A

    公开(公告)日:2025-05-23

    申请号:CN202411939512.4

    申请日:2024-12-26

    Abstract: 本发明公开了一种基于大模型FAQ抽取的数电票智能问答方法及系统,包括:获取用于数电分析的不同类型的源分析文件,并基于所述源分析文件确定分析文档数据;利用大语言模型接口获取分析文档数据,并基于分析文档数据进行FAQ抽取获取至少一个问答对;基于获取的问答对形成预设格式的待导入文件,对待导入文件中的问答对进行Embedding处理并存储到Elasticsearch向量数据库,并将结果整合到知识库中;获取用户输入的与数电票相关的问题,基于所述问题匹配所述知识库中的问答对,并返回匹配的问答对至用户。本发明的方法引入大语言模型提供高品质智能问答服务,助力客服系统知识库的构建和优化,提高知识库精准匹配度,有效提升客服运维工作效率,同时能够降低运营成本。

    联合计算的状态控制方法、装置、电子设备和存储介质

    公开(公告)号:CN117632419A

    公开(公告)日:2024-03-01

    申请号:CN202311595290.4

    申请日:2023-11-27

    Abstract: 本申请提供了一种联合计算的状态控制方法、装置、电子设备和存储介质,所述方法包括:根据项目发起方针对目标项目配置的项目信息,向各项目参与方发送项目邀请信息,并将目标项目的状态更新为待确认。若各项目参与方反馈的项目反馈信息均指示参与目标项目的联合计算,则将目标项目的状态更新为已确认。当目标项目的状态为已确认时,根据任务发起方发起的联合计算任务,向各任务参与方发送任务邀请信息。若各任务参与方反馈的任务反馈信息均指示参与联合计算任务,则将联合计算任务的状态更新为已确认。当联合计算任务的状态为已确认时,根据任务发起方和任务参与方的执行进度更新联合计算任务的状态。本方案可以提升联合计算的安全性。

    联邦学习方法、装置、电子设备和存储介质

    公开(公告)号:CN117494845A

    公开(公告)日:2024-02-02

    申请号:CN202311459157.6

    申请日:2023-11-03

    Abstract: 本申请实施例提供了一种联邦学习方法、装置、电子设备和存储介质,方法包括:对任务发布对象的联邦学习任务进行发布,并接收针对联邦学习任务的任务参与请求;根据任务参与请求确定申请加入联邦学习任务的申请对象,获取申请对象的历史贡献值记录,历史贡献值记录包括:申请对象的历史贡献值、历史贡献值对应的任务时间和历史贡献值对应的任务发布对象;根据历史贡献值记录计算申请对象的可靠性评分,可靠性评分用于表示申请对象的可靠度;根据可靠性评分,从申请对象中确定参与联邦学习任务的参与对象;通过参与对象进行模型训练以完成联邦学习任务。本申请实施例可通过可靠性评分有效地去除劣质参与对象和恶意参与方,提高联邦学习的效率。

    一种分类模型参数更新方法及装置

    公开(公告)号:CN117493984A

    公开(公告)日:2024-02-02

    申请号:CN202311384952.3

    申请日:2023-10-24

    Abstract: 本申请公开了一种分类模型参数更新方法及装置,该方法包括:第一服务器获得密钥服务器发送的密钥和初始模型参数,并根据初始模型参数和第一服务器的本地数据确定所述第一服务器的模型参数,初始模型参数包括SVM参数;第一服务器根据密钥服务器发送的密钥加密第一服务器的模型参数,确定所述第一服务器的加密模型参数;所述第一服务器根据获得的第二服务器的加密模型参数和第一服务器的加密模型参数进行聚合,得到经过聚合的加密模型参数;第一服务器根据密钥服务器发送的密钥解密经过聚合的加密模型参数得到经过聚合的模型参数,根据经过聚合的模型参数更新初始模型参数。该方法能够提高服务器本地数据的隐私性。

    一种基于联邦学习的模型训练方法及装置

    公开(公告)号:CN117521102A

    公开(公告)日:2024-02-06

    申请号:CN202311490088.5

    申请日:2023-11-09

    Abstract: 本发明公开了一种基于联邦学习的模型训练方法及装置,包括:第一端根据自身的第一数据集和第一模型的参数确定第一训练参数;保证第一端的数据不出本地,防止数据泄露。基于第一公钥确定第一训练参数的第一密文,并发送至第二端,以使第二端根据第二数据集、第二模型的参数和第一训练参数的第一密文确定第一模型的第一梯度密文;其中,第一模型的第一梯度密文表示第一模型的梯度根据第一公钥加密后的结果;进而第一端根据第一私钥对第一模型的第一梯度密文进行解密,得到第一模型的梯度,以此对第一模型进行迭代。实现第一端和第二端之间的以密文的形式进行数据交互,既实现基于联邦学习的模型训练,又保证训练过程中数据的安全性。

    一种基于RAG及大语言模型的信息检索方法及系统

    公开(公告)号:CN119597870A

    公开(公告)日:2025-03-11

    申请号:CN202411520919.3

    申请日:2024-10-29

    Abstract: 本发明公开了一种基于RAG及大语言模型的信息检索方法及系统,属于智能办公技术领域。本发明方法,包括:采用长短混合粒度法及预设的拆条策略,对不同类型的文档进行解析,以得到针对所述不同类型的文档,长短两种粒度的文本片段,基于所述长短两种粒度的文本片段,构建长短混合粒度知识库;当收到用户问题时,基于大语言模型使用多轮查询重写机制,将所述用户问题调整为具体查询语句;以所述具体查询语句作为检索语句,在所述长短混合粒度知识库中,使用检索增强生成技术RAG进行检索,获取检索结果,并按照检索结果中知识的发布日期,对所述检索结果进行排序,优先展示排序靠前的检索结果。本发明的应用提升了问答检索查询的精确度。

Patent Agency Ranking