-
公开(公告)号:CN115720270A
公开(公告)日:2023-02-28
申请号:CN202110975997.2
申请日:2021-08-24
Applicant: 鹏城实验室
IPC: H04N19/42 , H04N19/44 , H04N19/597 , H04N19/96
Abstract: 本发明公开了点云编码方法、解码方法、点云编码设备及解码设备,所述点云编码方法包括:计算第一顶点到所述第一顶点的父节点的距离作为第一距离;在未编码的顶点中确定距离所述第一顶点最近的点作为第二顶点,计算所述第二顶点到所述第一顶点N个坐标分量上的残差值;对所述第二顶点到所述第一顶点N个坐标分量上的残差值的绝对值进行编码;根据所述第二顶点的残差值与所述第一距离,对所述第二顶点的残差值的符号进行编码。本发明利用点云中顶点之间的几何位置关系对残差值的绝对值和残差值中可行的符号位进行编码,提高了残差值的编码效率,同时通过优化残差值编码的效率,提升了点云预测树编码的性能。
-
公开(公告)号:CN115714864A
公开(公告)日:2023-02-24
申请号:CN202110969710.5
申请日:2021-08-23
Applicant: 鹏城实验室
IPC: H04N19/42 , H04N19/44 , H04N19/597 , H04N19/60 , H04N19/96
Abstract: 本发明公开了一种点云属性编码方法、装置、解码方法以及装置,其中,上述点云属性编码方法包括:对所有待编码点云数据进行排序,获取排序点云数据,其中,待编码点云数据为属性待编码的点云数据;基于所有排序点云数据以及各排序点云数据之间的距离构建多层结构;获取多层结构中各节点对应的编码方式,其中,一个节点对应的编码方式为直接编码模式、预测编码模式或变换编码模式,其中,预测编码模式是基于与节点对应的邻近节点的信息对节点进行编码,变换编码模式是基于变换矩阵对节点进行编码;基于多层结构以及对应的编码方式分别对各节点进行点云属性编码。与现有技术相比,本发明方案有利于提升点云数据的总体编码效率。
-
公开(公告)号:CN115633031A
公开(公告)日:2023-01-20
申请号:CN202211082723.1
申请日:2022-09-06
Applicant: 鹏城实验室
Abstract: 本发明公开了一种启发式指导的异步历史优化方法及相关设备,所述方法包括:获取集群控制节点和工作节点,控制所述集群控制节点对模型的参数及计算图进行初始化,并将初始化后的数据发送至所述工作节点;控制所述工作节点对所述数据进行训练,通过训练得到的状态表记录信息,并控制所述工作节点将所述状态表发送至所述集群控制节点;在所述集群控制节点接收所述状态表后,控制所述集群控制节点异步进行所述计算图的更新和所述工作节点的参数优化。本发明通过集群控制节点不断整合多轮迭代中各工作节点的状态表并加以存储,通过不断更新计算图使得整个系统效率最优化,并通过还原历史梯度以辅助工作节点更新参数,以提高整个系统的精度。
-
公开(公告)号:CN115564041A
公开(公告)日:2023-01-03
申请号:CN202211181327.4
申请日:2022-09-27
Applicant: 鹏城实验室
Abstract: 本发明公开了神经网络模型训练系统、方法及相关设备,其中,上述系统包括多个通信连接的计算节点,上述系统根据计算节点以数据和模型并行的方式训练待训练模型,计算节点包括依次通信连接的数据生成模块、数据传输模块、训练模块和模型参数存储模块;数据生成模块生成一批模型训练数据;数据传输模块获取模型训练数据、预处理获得预处理训练数据并搬运到训练模块;训练模块根据预处理训练数据对待训练模型进行训练以更新待训练模型的模型参数并更新数据迭代次数,更新后的数据迭代次数小于数据迭代次数阈值时触发数据生成模块生成下一批模型训练数据;模型参数存储模块存储模型参数。本发明有利于提高神经网络模型训练时的收敛效果。
-
公开(公告)号:CN115481730A
公开(公告)日:2022-12-16
申请号:CN202211143030.9
申请日:2022-09-20
Applicant: 鹏城实验室
Abstract: 本发明公开了一种注意力机制模型训练方法、装置、终端及存储介质,包括:获取配置文件,根据配置文件识别各待训练模型,并向各待训练模型分配对应的并行训练策略;根据分配的并行训练策略及对应的模型参数进行数据并行处理,加载配置文件中对应的数据存储位置,得到各待训练模型对应的训练数据;调用全局自扩展模型并行算法,根据得到的训练数据、分配的并行训练策略及配置文件中的模型参数对各待训练模型进行并行训练,得到各待训练模型的训练结果。本发明实现了可自动伸缩的强扩展策略,框架可根据用户使用的模型,数据量大小自动扩展并行规模并修改矩阵切分维度,提高了注意力机制模型并行训练的效率。
-
公开(公告)号:CN115456170A
公开(公告)日:2022-12-09
申请号:CN202211116537.5
申请日:2022-09-14
Applicant: 鹏城实验室
Abstract: 本发明公开了一种低通信开销的神经网络并行训练方法,本发明通过跨多层拆分目标卷积网络,使得拆分后得到的每个分离网络中均包含目标卷积网络中各个操作层的一部分。因此本发明只需要获取各分离网络的前向结果即可实现目标卷积网络的网络训练过程,各分离网络无需中间通信,减少了参数传播过程的通信开销。解决了现有的神经网络并行训练方法会产生大量的中间通信,导致训练过程中产生大量的通信开销,从而影响训练效率的问题。
-
公开(公告)号:CN115278269A
公开(公告)日:2022-11-01
申请号:CN202210699502.2
申请日:2022-06-20
Applicant: 鹏城实验室
IPC: H04N19/91 , H04N19/18 , H04N19/50 , H04N19/61 , H04N19/124 , H04N19/186 , H04N19/597
Abstract: 本发明公开一种点云属性编码方法、点云属性解码方法及存储介质,所述编码方法包括:基于待编码点云数据得到目标排序码后对待编码点云数据进行排序;按照排序依次进行属性编码:计算当前待编码点与最相邻点之间的差值距离并与阈值距离比较,根据比较结果调整当前量化参数或当前量化舍入方法后,使用当前调整量化参数或当前调整量化舍入方法对输入系数进行量化得到量化系数。通过在编码时,计算当前待编码点与最相邻点之间的差值距离后与阈值距离比较,并根据比较结果调整当前量化参数或当前量化舍入方法后,对输入系数进行量化得到量化系数,即通过对距离的判定筛选预测误差较大的点,调整量化参数减小预测误差,从而提升重建点云数据的精度。
-
公开(公告)号:CN114189692A
公开(公告)日:2022-03-15
申请号:CN202010966930.8
申请日:2020-09-15
Applicant: 鹏城实验室
Abstract: 本发明公开了基于连续子空间图变换的点云属性编码方法以及解码方法,通过将目标点云划分为多层级结构,对多层级结构的第二级以及第二级以上的目标点云空间,都由该目标点云空间在下一级的子空间的第一属性系数进行图变换得到该节点的第一属性系数和第二属性系数,目标点云空间的第一属性系数在上一级继续被变换,这样进行连续变换后,最终得到所述目标点云的第一属性系数和各个目标点云空间的第二属性系数,再根据所述目标点云的第一属性系数和各个目标点云空间的第二属性系数进行点云属性编码,在编码的过程中,不涉及寻找变换点的过程,避免了寻找方向的顺序影响点云属性编码效果,保证了点云属性编码质量。
-
公开(公告)号:CN111046199A
公开(公告)日:2020-04-21
申请号:CN201911196619.3
申请日:2019-11-29
Applicant: 鹏城实验室
IPC: G06F16/438 , G06F16/41
Abstract: 本发明公开了一种为图像加旁白的方法以及电子设备,所述方法包括当操作图像时,接收所述图像对应的旁白数据;将所述旁白数据与所述图像相关联,以使得显示所述图像时显示所述旁白数据。本发明在接收到旁白数据时,可以将旁白数据与图像打包封装并存储在一起,这样当图像传输或者显示时,所述旁白数据可以与图像同步传输或显示,使得用户可以随时获取到图像对应的情感表达信息等,提高图像的显示效果,给用户的使用带来方便;同时也延长了图像的使用寿命以及保留意义。
-
公开(公告)号:CN111046199B
公开(公告)日:2024-03-19
申请号:CN201911196619.3
申请日:2019-11-29
Applicant: 鹏城实验室
IPC: G06F16/438 , G06F16/41
Abstract: 本发明公开了一种为图像加旁白的方法以及电子设备,所述方法包括当操作图像时,接收所述图像对应的旁白数据;将所述旁白数据与所述图像相关联,以使得显示所述图像时显示所述旁白数据。本发明在接收到旁白数据时,可以将旁白数据与图像打包封装并存储在一起,这样当图像传输或者显示时,所述旁白数据可以与图像同步传输或显示,使得用户可以随时获取到图像对应的情感表达信息等,提高图像的显示效果,给用户的使用带来方便;同时也延长了图像的使用寿命以及保留意义。
-
-
-
-
-
-
-
-
-