-
公开(公告)号:CN114897155A
公开(公告)日:2022-08-12
申请号:CN202210328123.2
申请日:2022-03-30
Applicant: 北京理工大学
Abstract: 本发明公开的一种用于卫星的集成模型无数据压缩方法,属于卫星通信深度学习领域。针对在卫星上部署神经网络模型需要消耗大量存储及计算资源,且原始训练数据无法获取的问题,本发明通过建立极小‑极大优化目标训练一个生成器模型合成替代数据,并使用生成数据将卫星端的多个历史版本模型压缩为一个具有多分支结构的轻量模型;然后使用卫星端更新模型时的少量标注数据,训练注意力模型动态聚合各分支预测结果。本发明以无需数据的形式将卫星端模型更新过程中产生的多个历史版本模型压缩,以较小的精度损失为代价,大幅度减少模型所需的存储空间及浮点运算次数,节约卫星上宝贵的存储及计算资源。
-
公开(公告)号:CN112822110A
公开(公告)日:2021-05-18
申请号:CN202011580994.0
申请日:2020-12-28
Applicant: 北京理工大学
IPC: H04L12/741 , H04L12/761 , H04L29/08 , G06N20/00
Abstract: 本发明涉及一种基于NDN的PS架构分布式机器学习训练系统数据传输方法,属于分布式机器学习技术领域。本发明方法,将NDN中基于PIT的请求聚合机制、基于CS的网内缓存机制以及“一对多”的内容分发机制应用于分布式机器学习训练系统中,能够改变现有的PS与多个CPU之间“一对一”的数据交互的模式,减少PS发送更新参数的次数,从而减少数据的冗余传输、减轻PS周边链路负载、降低链路带宽占用、缩短机器学习的训练计算时延。
-
公开(公告)号:CN110493885B
公开(公告)日:2020-12-08
申请号:CN201910774785.0
申请日:2019-08-21
Applicant: 北京理工大学
Abstract: 本发明涉及一种针对数据分片的命名数据网络连续数据推送方法,属于计算机网络数据传输技术领域。包括a)设置NDN各结点名称和位置信息及结点间连接链路b)结点相互通告链路状态并建立链路状态数据库c)结点交换链路状态数据库信息并汇总全网链路状态信息d)数据源结点向全网通告持有数据内容名称e)各结点计算到达其他结点和获取数据内容的最优路径并写入FIB表f)数据源发送推送请求兴趣包及用户回复推送应答数据包g)用户发送数据请求兴趣包及数据源回复推送数据包h)用户计数并接收推送数据包i)用户清点校验推送数据包并发送重传请求兴趣包及数据源重传部分推送数据包。实现了数据包的连续推送并降低了链路和带宽消耗。
-
公开(公告)号:CN119152178A
公开(公告)日:2024-12-17
申请号:CN202411058242.6
申请日:2024-08-02
Applicant: 北京理工大学
IPC: G06V10/25 , G06V10/774 , G06V10/82 , G06N20/00 , G06N3/08 , G06N3/0442 , G06N3/0464
Abstract: 本发明涉及一种基于数据和特征的红外小目标检测优化方法及系统,属于计算机视觉技术领域。首先预处理红外小目标数据集中的训练数据,并对训练数据进行分类,随机裁剪扩充数据量。将分类好的数据和其对应的标签输入扩散模型进行训练。然后,加载训练好的扩散模型参数,输入随机噪声、随机类别和随机标签生成红外数据,融入原始训练数据,得到新的合成训练数据集。在神经网络中,应用基于记忆的检测头,使用合成数据集进行训练。最后加载训练好的网络参数,输入需要检测的红外图像,得到检测结果。本发明引入了扩散模型来生成红外数据,增加了训练数据的多样性,提高了检测精度和稳定性。
-
公开(公告)号:CN118966196A
公开(公告)日:2024-11-15
申请号:CN202410400387.3
申请日:2024-04-03
Applicant: 北京理工大学 , 褚卫兵 , 浪潮软件科技有限公司
IPC: G06F40/216 , G06F40/30 , G06Q50/00 , G06F16/35 , G06N3/0464 , G06N3/08
Abstract: 本发明公开的一种基于多模态完全双曲图神经网络的网络暴力识别方法,属于舆情监控技术领域。本发明实现方法为:计算每则帖子的TF‑IDF向量并得到特征向量矩阵,将关联性超过预设阈值的节点对用边进行连接,构建帖子关联图,实现不同帖子间的相似性和关联性的捕捉;将帖子文本转换为XLNet模型理解的输入格式;将分词后的文本输入预训练的XLNet模型;采用基于洛伦兹变换的多模态特征融合模块对帖子的文本特征和图像特征进行融合,实现了帖子的多模态特征向较低维度的洛伦兹空间的映射。完全双曲图神经网络通过帖子关联图中节点之间的交互实现信息传递,将完全双曲图神经网络学到的多模态帖子节点特征输入到网络暴力识别器中,实现网络暴力识别。
-
公开(公告)号:CN116776982A
公开(公告)日:2023-09-19
申请号:CN202310808099.7
申请日:2023-07-03
Applicant: 北京理工大学
IPC: G06N5/04 , G06N3/0464 , G06N3/08
Abstract: 本发明公开的一种用于边缘设备的神经网络动态早退加速推理方法,属于边缘计算领域。使用异构退出头结构,提高模型的特征提取能力,实现更高的模型精度、更快的推理速度和更低的模型运算复杂度;使用两阶段训练策略训练基于异构退出头的动态早退模型,更充分地发挥退出头的潜能,进一步提高模型精度,降低模型运算复杂度;使用动态推理方法,动态执行部分网络,节省计算资源;同时根据输入数据的复杂性动态选择模型输出路径,以适应不同场景,实现精度‑效率之间的权衡。本发明适用于边缘计算领域,提高模型精度,加快推理速度并且降低模型运算复杂度,为基于复杂模型的智能应用在边缘设备的部署提供支撑。
-
公开(公告)号:CN112579301B
公开(公告)日:2022-07-01
申请号:CN202011581614.5
申请日:2020-12-28
Applicant: 北京理工大学
Abstract: 本发明涉及一种基于NDN的P2P分布式机器学习训练系统数据传输方法,属于分布式机器学习领域。本发明方法,将NDN中基于PIT的请求聚合机制、基于CS的网内缓存机制以及“一对多”的内容分发机制应用于P2P架构下的分布式机器学习中,在同步训练与异步训练中,能够满足减小传输冗余数据的需求。本发明方法减小了分布式机器学习训练系统中的传输冗余,从而减小了传输时延,提高了网络传输效率。同时,可以支持异步机器学习。在传输失败进行重传时,可以通过网内缓存实现就近获取,减少了对服务器端链路的占用,降低了传输延迟。
-
公开(公告)号:CN110177098A
公开(公告)日:2019-08-27
申请号:CN201910448754.6
申请日:2019-05-28
Applicant: 北京理工大学
IPC: H04L29/06
Abstract: 本发明涉及一种NDN与IP网络边界网关转换方法和装置,属于通信技术领域。该方法从IP网络接收IP数据包,存储IP数据包中的源IP地址,分析IP数据包中的HTTP请求报文,提取对应的NDN内容名;构造与IP数据包对应的NDN兴趣包;将NDN兴趣包发送到NDN中;接收从NDN中返回的NDN数据包,构造与NDN数据包对应的IP数据包;将IP数据包发送到IP网络中。本发明通过增加网络边界网关实现两种不同架构网络之间的通信,无需对网络结构或网络节点进行改动,在网关实现包的拆解和转换,最大程度地利用了边界网关在不同通信协议间充当翻译器的功能,具有高效简洁的特点;设置边界网关表,通过将IP地址与NDN内容名对应,实现IP网络与NDN路由核心的一一对应,保证可靠的数据传输。
-
公开(公告)号:CN110149274A
公开(公告)日:2019-08-20
申请号:CN201910418645.X
申请日:2019-05-20
Applicant: 北京理工大学
IPC: H04L12/751 , H04L12/741 , H04L12/721
Abstract: 本发明涉及基于位置信息和内容推送的命名数据网络综合路由方法,属于计算机网络路由优化技术领域。包括设置网络管理服务器、确定各个结点的链路状态并启动链路状态定时器、建立NDN全网拓扑结构图并启动网络拓扑定时器、建立网络拓扑应用记录表、建立全网数据名称和内容源名称匹配列表并启动统计间隔定时器、用户发送位置请求兴趣包及网络管理服务器回复位置数据包、用户计算转发路径并发送数据请求兴趣包及内容源回复内容数据包、网络管理服务器评估数据流行度及内容源推送数据名称补充NDN结点的FIB表、定期检测链路状态更新网络拓扑和推送高流行度数据名称。本方法复杂度较低、带宽开销较小,可实现快速建立FIB表和高效转发兴趣包。
-
公开(公告)号:CN118821976A
公开(公告)日:2024-10-22
申请号:CN202410950911.4
申请日:2024-07-16
Applicant: 北京理工大学
IPC: G06N20/20 , G06N3/08 , G06N3/0464 , G06N3/048
Abstract: 本发明公开的一种用于任意客户端退出问题的模型对比联邦学习方法,属于边缘智能计算技术领域。本发明实现方法为:在联邦学习本地训练阶段针对活跃客户端,构建加入正则项的模型对比模块,减小全局目标向局部目标的偏移;针对退出客户端,采用历史更新延用策略,保证退出客户端对全局更新的贡献度。在全局模型更新阶段,采用加权聚合模块,先对本轮次的客户端的更新量按贡献度加权聚合,通过给予普遍性数据更大的权重,防止错误数据或个性化数据对模型性能的负面影响;利用该加权聚合模块对该轮次局部更新的加权聚合量与上一轮次全局更新加权聚合,融合历史全局更新量,提升全局模型收敛速度,增强全局模型对数据异质性的鲁棒性。
-
-
-
-
-
-
-
-
-