-
公开(公告)号:CN118536550B
公开(公告)日:2025-04-18
申请号:CN202410615279.8
申请日:2024-05-17
Applicant: 中国人民解放军国防科技大学
IPC: G06N3/0455 , G06N3/0499 , G06N3/048 , G06N5/02
Abstract: 本发明公开了一种基于逐层参数编辑的大语言模型的优化方法,所述大语言模型由多层Transformer解码器组成,所述Transformer解码器包括前馈网络模块,所述优化方法包括:在Transformer解码器中,从第一关键层至最后关键层,对每一关键层进行参数编辑;每一关键层的参数编辑方法包括如下步骤:1)估计大语言模型已编码的知识的键C0,2)前馈网络模块上的批量目标知识表征作为值V1;3)进入前馈网络模块之前的批量目标知识的隐藏状态作为键K1;4)更新前馈网络模块的输出权重矩阵。本发明逐层完成参数更新,实现大语言模型的精准参数编辑,消除知识传播带来的信息丢失问题。
-
公开(公告)号:CN114117476B
公开(公告)日:2025-01-10
申请号:CN202111340155.6
申请日:2021-11-12
Applicant: 中国人民解放军国防科技大学
IPC: G06F21/60
Abstract: 本发明公开了一种基于麒麟移动操作系统的外置存储设备加解密系统及方法,系统包括:Web交互模块、Web渲染引擎模块和外置存储设备管理模块,Web渲染引擎模块提供加解密接口,Web交互模块调用该接口将操作指令发送给外置存储设备管理模块,外置存储设备管理模块确定目标外置存储设备后配置对应的虚拟设备,并生成加密密钥或解密密钥,然后通过所述虚拟设备对目标外置存储设备中的数据加密或解密,并生成对应的反馈信息后,将反馈信息通过Web渲染引擎模块的加解密接口发送给Web交互模块。本发明实现麒麟移动操作系统对外置存储设备加解密的功能,提高了麒麟移动操作系统终端对于外置存储设备数据访问的安全性。
-
公开(公告)号:CN119002932A
公开(公告)日:2024-11-22
申请号:CN202411499104.1
申请日:2024-10-25
Applicant: 中国人民解放军国防科技大学
Abstract: 本发明公开了一种基于软件事务内存的并发编程方法及装置。属于计算机编程技术领域。本申请设计的一种基于软件事务内存的并发编程方法,基于支持可交换更新感知的高速缓存硬件结构,支持可交换更新操作的事务处理,通过动态维护子事务串行执行图,在事务提交节点判断子事务的可串行性,增强了事务执行过程中的并发性;且基于Future异步编程的特性并发执行子事务和父事务,减少父子事务执行之间的强关联性,降低了事务回滚的可能性和事务执行失败的情况;此外,提供多种父事务的提交策略,阻塞等待策略可以避免全局观察不一致的问题;独立提交策略则可以提升事务执行效率,降低了事务回滚的影响范围。
-
公开(公告)号:CN118627489A
公开(公告)日:2024-09-10
申请号:CN202410515063.4
申请日:2024-04-26
Applicant: 中国人民解放军国防科技大学
IPC: G06F40/194 , G06F40/126 , G06V10/80 , G06V10/74 , G06V30/148 , G06V30/19
Abstract: 本发明公开了一种多模态认知信息与知识库动态整合方法及系统,本发明方法包括将多模态认知信息利用动态集成多模式认知信息提取网络DIMC以提取融合特征g:将提及表示、句子表示拼接后输入文本编码器再经过多头注意力提取文本特征#imgabs0#;将图像输入图像编码器再经过多头注意力提取图像特征#imgabs1#,将图像输入专家模型提取信息后经文本编码器得到专家特征#imgabs2#;将文本特征#imgabs3#、图像特征#imgabs4#以及专家特征#imgabs5#融合得到融合特征#imgabs6#并分别计算与知识库中实体的文本特征的相似度,将相似度最高的实体作为预测结果输出。本发明旨在实现对多模态认知实体信息的动态性收集,将知识库中的实体与现实世界的信息进行动态化的整合和链接。
-
公开(公告)号:CN118590287A
公开(公告)日:2024-09-03
申请号:CN202410786145.2
申请日:2024-06-18
Applicant: 中国人民解放军国防科技大学
Abstract: 本申请涉及一种基于节点特征识别的安全策略自适应部署方法,属于安全防护技术领域。包括:基于CIS基线和节点特点建立安全策略库;根据节点类型识别机制判定网络节点类型;根据已判定的网络节点类型,基于安全策略库对节点进行自动化扫描与加固,以实现安全策略自适应部署。本申请能够在云边端协同环境中针对异构节点进行安全策略定制、安全风险评估及安全策略加固,大大减少各异构节点的潜在缺陷,显著增加各节点的安全性。
-
公开(公告)号:CN118570535A
公开(公告)日:2024-08-30
申请号:CN202410683579.X
申请日:2024-05-29
Applicant: 中国人民解放军国防科技大学
IPC: G06V10/764 , G06V10/774 , G06V10/82 , G06N3/042 , G06N3/08
Abstract: 本发明公开了一种针对图分类的图深度模型自适应参数调整方法,包括如下步骤:步骤1:提取输入样本图i的全局结构特征;步骤2:提取输入样本图i的局部结构特征,全局结构特征和局部结构特征整合形成结构特征向量S(i);步骤3:选取共享GNN模型;步骤4:通过图调制器将结构特征向量S(i)转化为调制信息;步骤5:给定一个图样本,通过图调制器生成的结构信息调制因子φ(k)来调整共享GNN模型的参数θ(k),调制过参数后的共享GNN模型称作定制GNN模型;步骤6:参数训练:训练图调制器和共享GNN模型的参数,选择交叉熵损失作为损失函数。本发明的方法动态地选择或调整模型参数,提高分类的准确性和模型的适用范围。
-
公开(公告)号:CN118520170A
公开(公告)日:2024-08-20
申请号:CN202410680721.5
申请日:2024-05-29
Applicant: 中国人民解放军国防科技大学
IPC: G06F16/9535 , G06N3/0895 , G06N5/04
Abstract: 本发明公开了一种基于双重测试时训练的分布外泛化深度推荐方法,包括:1)在预训练阶段,对推荐系统模型进行训练形成预训练模型;2)在测试时训练阶段,通过自监督任务对预训练模型进行更新,形成更新模型,3)在推理阶段,采用更新模型进行推理得到推荐结果;所述步骤2)中的自监督任务包括自蒸馏任务和对比任务,通过自蒸馏任务最小化具有相同偏好的用户兴趣中心之间的距离;对比任务为捕捉具有相似偏好的用户之间的相关性,本发明提出了基于双重测试时训练的分布外泛化深度推荐方法,在测试时训练阶段添加自蒸馏任务和对比任务,从而允许模型自适应偏移数据,以更好地理解用户之间的不变偏好和具有移位数据的可变用户特征或物品特征。
-
公开(公告)号:CN118394520A
公开(公告)日:2024-07-26
申请号:CN202410602801.9
申请日:2024-05-15
Applicant: 中国人民解放军国防科技大学
Abstract: 本发明涉及一种基于云边端协同的任务负载均衡调度方法,包括以下步骤:S1、由终端发起任务调度请求;S2、任务传输到负责该终端的边缘基站,边缘基站周边设置多个边缘服务器;S3、每个智能体收集所在域任务所需时延与资源需求;每个智能体观测所在域的资源使用情况,并与其他智能体进行通信,以制定任务调度策略;在制定调度策略的过程中,每个智能体根据上一个周期收到的奖励信号进行学习更新,其目标是最小化负载标准差;S4、根据最终完成的智能体的任务调度策略指定云边端中的某个服务器,将任务传输到指定的云边端中的服务器中进行处理。针对包含多个任务和多个云边端设备的复杂环境本发明能够实现较好的负载均衡效果。
-
公开(公告)号:CN118394493A
公开(公告)日:2024-07-26
申请号:CN202410151259.X
申请日:2024-02-02
Applicant: 中国人民解放军国防科技大学
Abstract: 本发明公开了一种基于巨型内存页的边缘深度学习模型推理加速方法及装置,本发明方法包括:步骤S1,获取边缘深度学习模型推理过程中产生的每一个中间变量的内存布局信息;步骤S2,对内存信息的内存布局进行重排内存布局使得边缘深度学习模型进行运行时产生的中间变量总体所需要的内存空间尽可能小;步骤S3,在边缘深度学习模型推理过程中针对重排内存布局采用巨型内存页申请内存空间以降低内存分配和释放相关的系统调用开销。本发明旨在减少快表TLB未命中并避免频繁的系统调用,实现边缘深度学习模型推理过程中的内存访问加速。
-
公开(公告)号:CN118350442A
公开(公告)日:2024-07-16
申请号:CN202410554012.2
申请日:2024-05-07
Applicant: 中国人民解放军国防科技大学
IPC: G06N3/0895 , G06N3/042 , G06N3/045 , G06F18/241 , G06F18/214
Abstract: 本发明公开了一种基于节点同质性特征的深度图模型的完全测试时训练方法,包括如下步骤:步骤1、预训练阶段,使用源数据和主任务损失函数训练模型参数,得到预训练分类模型;步骤2、计算每条边的同质性分数;步骤3、基于同质性的数据增强,得到增强图;步骤4、对比学习,从增强图中得到正样本,通过对比学习优化所选样本,步骤5、参数更新:给定目标数据,通过步骤4的对比学习更新预训练分类模型的参数,得到测试时训练模型;步骤6、基于同质性的模型选择。本发明可以充分捕获图信息,并在测试时训练阶段更新模型,从而提高模型在目标数据上的性能,通过本发明的方法,能够充分利用节点广泛信息,提高了模型的分布外泛化能力。
-
-
-
-
-
-
-
-
-