-
公开(公告)号:CN119848880A
公开(公告)日:2025-04-18
申请号:CN202510339884.1
申请日:2025-03-21
Applicant: 中国科学技术大学
IPC: G06F21/57
Abstract: 本发明公开了一种数据库变更捕获工具自动化测试方法、系统、设备及介质,它们是一一对应的方案,方案旨在拓展已在单机数据库上被证明有效的PQS自动化测试方法,探测现代数据库系统中的潜在漏洞,具体来说,方案中:基于源数据库与目标数据库状态一致性的初始化机制,使用规范化的语句保障兼容性,基于随机构造的用于查询的表达式,验证数据库变更捕获工具的正确性,本发明显著提升了数据库变更捕获工具在高并发场景下的性能可靠性,同时增强了对现代数据库和数据集成平台潜在漏洞的检测能力。
-
公开(公告)号:CN119719420A
公开(公告)日:2025-03-28
申请号:CN202311278652.7
申请日:2023-09-28
Applicant: OPPO广东移动通信有限公司 , 中国科学技术大学
IPC: G06F16/901 , G06F3/06
Abstract: 本申请提供了一种图数据处理方法、装置、电子设备及存储介质,属于计算机技术领域。该方法包括:获取初始图数据,初始图数据包括V个结点的结点数据和E条边的边数据;对于V个结点中的任一结点,将结点的结点数据存储在内存中,将结点关联的目标边数据按照结点的结点编号存储在持久化存储空间中,目标边数据为E条边中与结点连接的至少一条边的边数据;基于内存中的结点数据和从持久化存储空间中读取到的边数据,对初始图数据进行分割,直至初始图数据的分割结果达到分割目标。上述方案能够大幅度降低图分割系统运行所需的内存,并且能够实现在内存限制下以合理时间完成超大规模图分割。
-
公开(公告)号:CN119045753B
公开(公告)日:2025-03-25
申请号:CN202411556141.1
申请日:2024-11-04
Applicant: 中国科学技术大学
Abstract: 本发明公开了一种基于ZNS SSD搭建的通用中间件系统及相关方法,它们是相对应的方案,方案中:在截取上层系统向下发送的请求后,根据地址映射关系,将应用逻辑地址的随机写转换为物理地址的顺序写,将应用的数据存在ZNS SSD中正确的位置上;并且,能够在空间不足时,通过垃圾回收,整理回收无效数据最多的Zone,在确保存储的性能的同时,为后续的新数据写入腾出空间;此外,该方案可以向上层系统提供通用块设备接口,无需对现有上层系统做任何改变,无需牺牲性能,使得ZNS SSD能够兼容已有的存储系统栈。
-
公开(公告)号:CN119026693B
公开(公告)日:2025-02-21
申请号:CN202411481753.9
申请日:2024-10-23
Applicant: 中国科学技术大学
IPC: G06N5/043 , G06N3/045 , G06F40/284
Abstract: 本发明公开了一种轻量混合专家模型架构系统及其实现方法,它们是相对应的方案,方案中:在通信前与通信后分别引入降维和升维操作,将传统的通信‑计算‑通信模式转变为降维‑通信‑计算‑通信‑升维的新模式,能够减少数据迁移通信的内容量,从而有效地降低通信开销;并且,本发明提供的模型架构可以按照部署时的并行方案进行划分,使用各种训练框架部署,从而在GPU(图形处理器)上高效地进行推理和训练任务。
-
公开(公告)号:CN118227137B
公开(公告)日:2025-01-28
申请号:CN202410329650.4
申请日:2024-03-21
Applicant: 中国科学技术大学
Abstract: 本发明公开了一种多功能无服务器函数冷启动延迟优化方法与系统,将多功能无服务器函数切分为多个单功能无服务器函数,并去除不在依赖代码集合中的无关代码,使得每个单功能无服务器函数包含对应功能的全部依赖代码,保证功能可以正常执行的同时,减少应用代码的体积,降低无服务器函数加载和初始化延迟;以及,分析单功能无服务器函数依赖的模块包,保留依赖的模块包,去除无用的模块包,进一步减小无服务器函数的体积;所述模块包是应用代码所引入的外部代码包,这些外部代码包也作为无服务器函数的一部分,增加了无服务器函数的体积;以上两个方面共同减少了无服务器函数的冷启动延迟,为无服务器计算技术在更多场景中的应用创造了可能。
-
公开(公告)号:CN117891797A
公开(公告)日:2024-04-16
申请号:CN202410168160.0
申请日:2024-02-06
Applicant: 中国科学技术大学
IPC: G06F16/182 , G06F16/172 , G06F16/13
Abstract: 本发明公开了一种基于提示的分布式文件系统操作实现方法及相关系统,在分布式文件系统中引入存储目录标识符的提示节点,当客户端发起文件系统操作时,先从提示节点获取路径中所有目录的标识符作为提示,将路径解析的性能开销从逐层多次元数据读取降低为一次元数据批量读取,通过减少网络传输的次数,降低了路径解析的延迟,进而提升了文件系统操作的性能。同时,提示节点采用叶子目录优先的数据替换算法,尽可能存储完整的目录树,既控制了提示节点的内存开销,又能够保证客户端以较低的延迟获取提示信息。
-
公开(公告)号:CN113592089B
公开(公告)日:2024-04-02
申请号:CN202110893347.3
申请日:2021-08-04
Applicant: 中国科学技术大学
Abstract: 本发明公开了一种分布式深度学习训练场景下压缩感知的梯度同步方法,首先,计算任务与传输任务解绑,并分类进行管理与调度,使得将不同梯度的压缩相关的计算隐藏在传输中成为可能;其次,本发明在保留原有Parameter Server和Ring‑allreduce特性的前提下,将发送给相同目的执行节点的梯度按批次管理,对发送给不同目的节点的批次协调其发送的时机,使得既保证了梯度压缩算法先验条件的同时,又高效并行地利用了网络的上下行带宽。结合以上两点技术方案,本发明能够大大提升开启梯度压缩的分布式深度学习的梯度同步速度。
-
公开(公告)号:CN116011551B
公开(公告)日:2023-08-29
申请号:CN202310040431.X
申请日:2023-01-13
Applicant: 中国科学技术大学
IPC: G06N3/082 , G06N3/084 , G06N3/0495 , G06F9/50
Abstract: 本发明公开了一种优化数据加载的图采样训练方法、系统、设备及存储介质,其中,方法、系统、设备及存储介质是一一对应的方案,方案中在训练之前通过压缩特征数据,减少了数据量,大幅降低数据加载的开销,并在不同规模的图数据集上均能维持恒定的效果,同时减少训练过程中的内存占用,并且还可以降低数据传输量以缓解PCI‑e带宽瓶颈,以及提升GPU资源利用率,使得训练大规模的图成为可能;并且,通过在GPU上解压缩恢复其格式,将数据加载方法与模型解耦,在保留原有图神经网络模型不变的情况下提供加速,兼容各种图神经网络模型。结合以上方案,本发明能够大大提升图采样训练过程中的数据加载速度。
-
公开(公告)号:CN115996173B
公开(公告)日:2023-06-20
申请号:CN202310039997.0
申请日:2023-01-13
Applicant: 中国科学技术大学
IPC: H04L41/0823 , H04L41/0894 , H04L41/14 , G06F18/214 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种面向分布式深度学习算子并行训练的通信优化方法与系统,对通信方式进行了优化,方法与系统一一对应,主要包括:剖析模型,策略评估和生成最佳优化策略,算子拆分和隐藏通信,模型训练与算子拆分的集成四个部分。与传统方案相比,本发明利用开销模型评估出最优的拆分策略,将通信前后的计算算子拆分成细粒度的子计算算子,使得计算算子和通信算子并行,使得通信开销能最大化地隐藏到计算中,最大化利用网络和计算资源。
-
公开(公告)号:CN116011551A
公开(公告)日:2023-04-25
申请号:CN202310040431.X
申请日:2023-01-13
Applicant: 中国科学技术大学
IPC: G06N3/082 , G06N3/084 , G06N3/0495 , G06F9/50
Abstract: 本发明公开了一种优化数据加载的图采样训练方法、系统、设备及存储介质,其中,方法、系统、设备及存储介质是一一对应的方案,方案中在训练之前通过压缩特征数据,减少了数据量,大幅降低数据加载的开销,并在不同规模的图数据集上均能维持恒定的效果,同时减少训练过程中的内存占用,并且还可以降低数据传输量以缓解PCI‑e带宽瓶颈,以及提升GPU资源利用率,使得训练大规模的图成为可能;并且,通过在GPU上解压缩恢复其格式,将数据加载方法与模型解耦,在保留原有图神经网络模型不变的情况下提供加速,兼容各种图神经网络模型。结合以上方案,本发明能够大大提升图采样训练过程中的数据加载速度。
-
-
-
-
-
-
-
-
-