-
公开(公告)号:CN112751865A
公开(公告)日:2021-05-04
申请号:CN202011618664.6
申请日:2020-12-31
Applicant: 网络通信与安全紫金山实验室
Abstract: 本发明公开了一种数据上行优化方法以及装置,属于网络通信领域,其中智能上行优化方法,包括:获取网络交互参数;根据所述网络交互参数确定交互类别;其中所述类别包括目标分类和非目标分类;根据对应的类别选择对应的速率控制方法;所述预测分配法包括对所述目标分类的第一时长进行预测;该数据上行优化方法通过对每个网络交互的参数提取特征,随后对网络交互进行分类,然后对不同的网络交互类型采取不同的上行码率控制方案,对于目标分类,首先预测其第一时长,然后基于预测结果为网络交互的分配合适的上传码率,对于非目标分类,继续使用网络平台原始的码率控制方案,保证实时交互过程中QoE的同时,减少无人交互过程中导致的上行资源浪费。
-
公开(公告)号:CN112418440B
公开(公告)日:2024-02-13
申请号:CN202011361273.0
申请日:2020-11-27
Applicant: 网络通信与安全紫金山实验室
Abstract: 本发明公开了一种边‑端协同梯度压缩聚合方法以及装置,属于机器学习领域,其中边‑端协同梯度压缩聚合方法包括:等待当次训练迭代开始;根据当前的迭代次数端设备和边缘服务选择梯度压缩聚合模式;根据所述梯度压缩矩阵进行梯度压缩与近似梯度计算;该边‑端协同梯度压缩聚合方法通过在梯度压缩、解压过程使用了基于近似梯度的边‑端协同梯度压缩矩阵计算方法,实现了梯度压缩矩阵计算与前、后向传播的并行,不仅减少了串行插入到端设备后向传播与模型更新操作之间集合通信次数,又也减少了端设备上的计算量,有效提升了面向网络边缘的分布式模型训练的速度。
-
公开(公告)号:CN112732226A
公开(公告)日:2021-04-30
申请号:CN202011589082.X
申请日:2020-12-29
Applicant: 网络通信与安全紫金山实验室
Abstract: 本发明公开了一种SDN网络编程方法、装置以及可读计算机存储介质,其中,SDN网络编程方法包括:确定网络功能模块的细粒度;确定第一网络功能模块与第二网络功能模块是否符合连接关系,若符合,则第一网络功能模块与第二网络功能模块连接;所述第一网络功能模块的输出槽位记录所述第二网络功能模块的输入槽位和对象指针;所述第二网络功能模块的输入槽位记录所述第一网络功能模块的输出槽位和对象指针;该SDN网络编程方法将网络应用抽象成多个模块组合方式来完成,模块与模块间的组合方式通过模块内置的查找表来指定,以此通过动态修改查找表的内容,来灵活选择下一个处理数据包的模块,从而支持网络应用的在线更新,避免业务流的中断。
-
公开(公告)号:CN112733689B
公开(公告)日:2024-03-26
申请号:CN202011643941.9
申请日:2020-12-31
Applicant: 网络通信与安全紫金山实验室
IPC: G06V40/12 , G06V10/764 , G06V10/774 , G06V10/82 , G06N3/04 , G06N3/084 , H04L67/02
Abstract: 本发明公开了一种HTTPS终端类型分类方法及装置,属于网络通信领域,其中HTTPS终端类型分类方法包括:构造数据集;从HTTPS流量会话中提取流统计特征和密码套件列表;构造终端类型分类模型;利用所述流统计特征和密码套件列表对所述终端类型分类模型进行训练;使用训练好的终端类型分类模型对HTTPS终端类型进行分类;该方法更加适用于HTTPS终端分类,针对HTTPS终端分类真实的应用场景,充分考虑了HTTPS的加密握手过程和网络数据传输过程原理,引入流统计特征和密码套件列表特征的混合指纹提取方式,使得终端分类方法在应对不同TLS版本下的HTTPS网络流量时具有更高的准确率和召回率。
-
公开(公告)号:CN112751865B
公开(公告)日:2022-12-23
申请号:CN202011618664.6
申请日:2020-12-31
Applicant: 网络通信与安全紫金山实验室
IPC: H04L65/80 , H04L41/0823 , H04L41/147 , H04L41/14 , H04W28/22
Abstract: 本发明公开了一种数据上行优化方法以及装置,属于网络通信领域,其中智能上行优化方法,包括:获取网络交互参数;根据所述网络交互参数确定交互类别;其中所述类别包括目标分类和非目标分类;根据对应的类别选择对应的速率控制方法;所述预测分配法包括对所述目标分类的第一时长进行预测;该数据上行优化方法通过对每个网络交互的参数提取特征,随后对网络交互进行分类,然后对不同的网络交互类型采取不同的上行码率控制方案,对于目标分类,首先预测其第一时长,然后基于预测结果为网络交互的分配合适的上传码率,对于非目标分类,继续使用网络平台原始的码率控制方案,保证实时交互过程中QoE的同时,减少无人交互过程中导致的上行资源浪费。
-
公开(公告)号:CN113114585B
公开(公告)日:2022-10-18
申请号:CN202110391253.6
申请日:2021-04-13
Applicant: 网络通信与安全紫金山实验室
Abstract: 本发明涉及计算机通信领域,具体的是任务迁移与网络传输联合优化的方法、设备及存储介质,包括以下步骤:判断被调用次数是否为0、执行初始化操作、推理出计算任务迁移与TCP初始拥塞窗口设置方案、更新经验重放缓冲区、判断是否需要更新Seq2Seq模型参数、更新Seq2Seq模型参数。本发明提出的任务迁移与网络传输联合优化的方法,可给出TCP初始拥塞窗口设置方案。与通信网络物理层资源分配方案相比,该方案的实施难度低,可由移动设备独立完成。其次,该方法使用深度强化学习技术推理计算任务迁移与TCP初始拥塞窗口设置方案,可用于快速做出计算任务完成时间最小化决策。
-
公开(公告)号:CN113114585A
公开(公告)日:2021-07-13
申请号:CN202110391253.6
申请日:2021-04-13
Applicant: 网络通信与安全紫金山实验室
IPC: H04L12/815 , H04L12/24
Abstract: 本发明涉及计算机通信领域,具体的是任务迁移与网络传输联合优化的方法、设备及存储介质,包括以下步骤:判断被调用次数是否为0、执行初始化操作、推理出计算任务迁移与TCP初始拥塞窗口设置方案、更新经验重放缓冲区、判断是否需要更新Seq2Seq模型参数、更新Seq2Seq模型参数。本发明提出的任务迁移与网络传输联合优化的方法,可给出TCP初始拥塞窗口设置方案。与通信网络物理层资源分配方案相比,该方案的实施难度低,可由移动设备独立完成。其次,该方法使用深度强化学习技术推理计算任务迁移与TCP初始拥塞窗口设置方案,可用于快速做出计算任务完成时间最小化决策。
-
公开(公告)号:CN112733689A
公开(公告)日:2021-04-30
申请号:CN202011643941.9
申请日:2020-12-31
Applicant: 网络通信与安全紫金山实验室
Abstract: 本发明公开了一种HTTPS终端类型分类方法及装置,属于网络通信领域,其中HTTPS终端类型分类方法包括:构造数据集;从HTTPS流量会话中提取流统计特征和密码套件列表;构造终端类型分类模型;利用所述流统计特征和密码套件列表对所述终端类型分类模型进行训练;使用训练好的终端类型分类模型对HTTPS终端类型进行分类;该方法更加适用于HTTPS终端分类,针对HTTPS终端分类真实的应用场景,充分考虑了HTTPS的加密握手过程和网络数据传输过程原理,引入流统计特征和密码套件列表特征的混合指纹提取方式,使得终端分类方法在应对不同TLS版本下的HTTPS网络流量时具有更高的准确率和召回率。
-
公开(公告)号:CN112732226B
公开(公告)日:2024-07-02
申请号:CN202011589082.X
申请日:2020-12-29
Applicant: 网络通信与安全紫金山实验室
Abstract: 本发明公开了一种SDN网络编程方法、装置以及可读计算机存储介质,其中,SDN网络编程方法包括:确定网络功能模块的细粒度;确定第一网络功能模块与第二网络功能模块是否符合连接关系,若符合,则第一网络功能模块与第二网络功能模块连接;所述第一网络功能模块的输出槽位记录所述第二网络功能模块的输入槽位和对象指针;所述第二网络功能模块的输入槽位记录所述第一网络功能模块的输出槽位和对象指针;该SDN网络编程方法将网络应用抽象成多个模块组合方式来完成,模块与模块间的组合方式通过模块内置的查找表来指定,以此通过动态修改查找表的内容,来灵活选择下一个处理数据包的模块,从而支持网络应用的在线更新,避免业务流的中断。
-
公开(公告)号:CN112418440A
公开(公告)日:2021-02-26
申请号:CN202011361273.0
申请日:2020-11-27
Applicant: 网络通信与安全紫金山实验室
Abstract: 本发明公开了一种边‑端协同梯度压缩聚合方法以及装置,属于机器学习领域,其中边‑端协同梯度压缩聚合方法包括:等待当次训练迭代开始;根据当前的迭代次数端设备和边缘服务选择梯度压缩聚合模式;根据所述梯度压缩矩阵进行梯度压缩与近似梯度计算;该边‑端协同梯度压缩聚合方法通过在梯度压缩、解压过程使用了基于近似梯度的边‑端协同梯度压缩矩阵计算方法,实现了梯度压缩矩阵计算与前、后向传播的并行,不仅减少了串行插入到端设备后向传播与模型更新操作之间集合通信次数,又也减少了端设备上的计算量,有效提升了面向网络边缘的分布式模型训练的速度。
-
-
-
-
-
-
-
-
-