-
公开(公告)号:CN114218918B
公开(公告)日:2025-02-14
申请号:CN202111447284.5
申请日:2021-11-30
Applicant: 鹏城实验室
IPC: G06F40/194 , G06F40/289 , G06F40/111
Abstract: 本发明公开了语料相似检测方法、装置、智能终端及存储介质,其中,上述语料相似检测方法包括:获取输入文档集合;分别对上述输入文档集合中的各个输入文档进行分布式预处理,获取待检测编码文档集合,其中,上述分布式预处理包括字符剔除、分词和单词格式转换,上述待检测编码文档集合中包括多个待检测编码文档,上述待检测编码文档中的各个单词为整数类型的编码;基于上述待检测编码文档集合进行语料相似检测。与现有技术相比,本发明中在进行文档比较时,只需要分别对文档中的单词进行比较,且只需要进行整数类型的数据比较,有利于减少计算量、降低比较时间,提高语料相似检测的效率。
-
公开(公告)号:CN112529176B
公开(公告)日:2025-02-07
申请号:CN202011395802.9
申请日:2020-12-03
Applicant: 鹏城实验室
Abstract: 本发明公开了一种加速脉冲神经网络的训练方法、终端及存储介质,所述方法包括:获取用于训练的脉冲序列和初始突触权值,根据所述脉冲序列和所述初始突触权值生成脉冲神经元的输入信号;获取基于所述输入信号产生的实际输出脉冲序列;获取期望输出脉冲序列,根据所述实际输出脉冲序列以及所述期望输出脉冲序列对所述初始突触权值进行更新,以实现对脉冲神经网络进行训练。本发明通过主机设备读取图片数据并转成脉冲序列以及设定初始权值。然后将脉冲神经网络训练中最耗时的参数更新任务交由专门的加速设备处理,提高了参数更新的速度,进而加速了脉冲神经网络的训练过程。从而解决了现有技术中脉冲神经网络的训练过程耗时长的问题。
-
公开(公告)号:CN112215063B
公开(公告)日:2024-08-23
申请号:CN202010909591.X
申请日:2020-09-02
Applicant: 鹏城实验室
IPC: G06V20/40 , G06V20/58 , G06V20/62 , G06V10/774
Abstract: 本发明公开了一种车牌脱敏方法、终端及存储介质。所述方法包括:获取目标视频,获取目标视频的每一帧中各个车辆对应的车辆空间信息,其中,车辆空间信息包括帧序号、车辆ID以及车辆位置信息;根据目标视频中每一帧中的各个车辆的车辆空间信息获取目标视频中每一帧中的各个车辆的第一车牌空间信息;根据第一车牌空间信息获取目标车牌空间信息;根据目标车牌空间信息对目标视频中的各个车牌进行脱敏处理。本发明通过对目标视频中的车辆进行跟踪,获取每一帧中各个车辆的车辆空间信息,再根据车辆的车辆空间信息获取每一帧中的车牌的车牌空间信息,进而根据车牌空间信息进行车牌脱敏处理,实现了对视频中的车牌信息进行脱敏。
-
公开(公告)号:CN113326147B
公开(公告)日:2024-04-05
申请号:CN202110544547.8
申请日:2021-05-19
Applicant: 鹏城实验室
IPC: G06F9/54
Abstract: 本发明公开了一种大规模分布式作业状态控制方法、装置、终端及存储介质,方法包括:接收目标消息体,其中,所述目标消息体是当目标作业的子任务状态发生变更时生成的;根据接收到所述目标消息体的接收时间戳和所述目标消息体的生成时间戳确定消息传输延迟时刻;若在所述消息传输延迟时刻前没有接收到新的所述目标消息体,则根据在所述消息传输延迟时刻前存储的所述目标消息体对所述目标作业的状态值进行更新处理。本发明可以避免作业管理系统中显示的作业状态值与实际状态不符。
-
公开(公告)号:CN115499308A
公开(公告)日:2022-12-20
申请号:CN202210972995.2
申请日:2022-08-15
Applicant: 鹏城实验室
IPC: H04L41/0803 , H04L41/0894 , H04L41/08 , H04L67/06 , H04L9/40 , H04L67/10
Abstract: 本发明公开了一种分布式FTP容器部署方法、装置、终端及存储介质,方法包括:调用服务插件程序,通过服务插件程序读取共享存储服务器中的用户存储根目录信息,并将集群中用户信息同步初始化存储至FTP服务的数据库中;通过数据库中的用户信息对用户登入权限进行校验,并根据校验结果在共享存储服务器中配置对应的用户存储根目录信息及FTP服务访问权限文件;将配置后的FTP服务以helm容器化的方式部署至所述集群中。本发明通过Mysql数据库、FTP服务以及服务插件的多容器微服务分布式组网模式,提高了服务器整体的扩展性和高可用性,从而提高了用户文件的上传和下载的效率。
-
公开(公告)号:CN115407936A
公开(公告)日:2022-11-29
申请号:CN202210938171.3
申请日:2022-08-05
Applicant: 鹏城实验室
Abstract: 本发明公开了一种数据集处理方法、系统、终端及计算机可读存储介质,所述方法包括:根据指定的本地原始数据的路径和目标对象云的基本信息,调用框架层接口创建数据集,并对数据集进行压缩处理;当数据集压缩处理完成后得到多个不同的数据块,并将所有数据块异步上传到目标对象云进行存储;当进行机器学习时,加载目标对象云中的数据集到机器节点,完成模型训练。本发明基于数据集样本相似性特性对数据进行合理分块压缩存储,极大的增加传输效率同时也减少了存储介质,在数据落地存储前对块进行合理的打乱处理,在实际任务训练时时取得更好的训练效果,优化了数据集在统一对象存储的加载速度和训练效果。
-
公开(公告)号:CN114385785A
公开(公告)日:2022-04-22
申请号:CN202111594472.0
申请日:2021-12-23
Applicant: 鹏城实验室
Abstract: 本发明公开了一种支持高并发的大规模生成式语言模型快速推理方法及系统,方法包括:获取第i步的前序文本的注意力中间值和第i步的预测文本,并保存第i步的前序文本的注意力中间值;获取第i步的预测文本对应的注意力中间值,根据第i步的预测文本对应的注意力中间值与第i步的前序文本对应的注意力中间值获取第i+1步的前序文本对应的注意力输出结果;根据第i+1步的前序文本对应的注意力输出结果生成第i+1步的预测文本。本发明能够加速大规模生成式语言模型的推理速度,缩短用户等待模型输出的时间。
-
公开(公告)号:CN114218918A
公开(公告)日:2022-03-22
申请号:CN202111447284.5
申请日:2021-11-30
Applicant: 鹏城实验室
IPC: G06F40/194 , G06F40/289 , G06F40/111
Abstract: 本发明公开了语料相似检测方法、装置、智能终端及存储介质,其中,上述语料相似检测方法包括:获取输入文档集合;分别对上述输入文档集合中的各个输入文档进行分布式预处理,获取待检测编码文档集合,其中,上述分布式预处理包括字符剔除、分词和单词格式转换,上述待检测编码文档集合中包括多个待检测编码文档,上述待检测编码文档中的各个单词为整数类型的编码;基于上述待检测编码文档集合进行语料相似检测。与现有技术相比,本发明中在进行文档比较时,只需要分别对文档中的单词进行比较,且只需要进行整数类型的数据比较,有利于减少计算量、降低比较时间,提高语料相似检测的效率。
-
公开(公告)号:CN112529176A
公开(公告)日:2021-03-19
申请号:CN202011395802.9
申请日:2020-12-03
Applicant: 鹏城实验室
Abstract: 本发明公开了一种加速脉冲神经网络的训练方法、终端及存储介质,所述方法包括:获取用于训练的脉冲序列和初始突触权值,根据所述脉冲序列和所述初始突触权值生成脉冲神经元的输入信号;获取基于所述输入信号产生的实际输出脉冲序列;获取期望输出脉冲序列,根据所述实际输出脉冲序列以及所述期望输出脉冲序列对所述初始突触权值进行更新,以实现对脉冲神经网络进行训练。本发明通过主机设备读取图片数据并转成脉冲序列以及设定初始权值。然后将脉冲神经网络训练中最耗时的参数更新任务交由专门的加速设备处理,提高了参数更新的速度,进而加速了脉冲神经网络的训练过程。从而解决了现有技术中脉冲神经网络的训练过程耗时长的问题。
-
公开(公告)号:CN114385785B
公开(公告)日:2024-12-17
申请号:CN202111594472.0
申请日:2021-12-23
Applicant: 鹏城实验室
Abstract: 本发明公开了一种支持高并发的大规模生成式语言模型快速推理方法及系统,方法包括:获取第i步的前序文本的注意力中间值和第i步的预测文本,并保存第i步的前序文本的注意力中间值;获取第i步的预测文本对应的注意力中间值,根据第i步的预测文本对应的注意力中间值与第i步的前序文本对应的注意力中间值获取第i+1步的前序文本对应的注意力输出结果;根据第i+1步的前序文本对应的注意力输出结果生成第i+1步的预测文本。本发明能够加速大规模生成式语言模型的推理速度,缩短用户等待模型输出的时间。
-
-
-
-
-
-
-
-
-