-
公开(公告)号:CN102681941A
公开(公告)日:2012-09-19
申请号:CN201210150959.4
申请日:2012-05-15
Applicant: 北京理工大学
IPC: G06F11/36
Abstract: 为了克服嵌入式软件测试过程中,由于对目标硬件过分依赖所导致的嵌入式软件测试不充分的缺点,通过最大程度上降低操作界面与底层虚拟机的耦合度以及定义良好的模块设计,本发明提供了一种可扩展的嵌入式仿真测试系统,该系统包括用户界面层和虚拟机仿真层;户界面层是完全独立于其它层的用户交互层,只通过命令行调用与底层的虚拟机进行交互,虚拟机仿真层实现对目标硬件的仿真;该系统适用于多种处理器的虚拟机体系架构,建立抽象的嵌入式处理器模型,并提供接口以集成上层软件测试功能。
-
公开(公告)号:CN119313651A
公开(公告)日:2025-01-14
申请号:CN202411484635.3
申请日:2024-10-23
Applicant: 北京理工大学
IPC: G06T7/00 , G06V10/54 , G06N3/045 , G06F16/583 , G06V10/764 , G06T3/4038 , G06V10/74 , G06N3/084 , G06F18/213 , G06F18/25
Abstract: 本发明提供一种基于搜索引擎与人类指导的多模态零样本缺陷检测方法,通过基于关键词的搜索引擎自动获取外源背景图像,极大简化了背景图像的获取流程;同时,本发明通过引入纹理元网络增强文本特征提取器,使其能够结合外源图像中的纹理信息,在处理未见材质或未见缺陷类别时,实现对缺陷的精确分割,克服了现有技术在面对罕见缺陷时的局限性;也就是说,本发明通过引入多模态零样本学习方法,结合文本和外源纹理图像的特征对齐,解决了传统缺陷检测算法对大规模数据集的依赖问题。
-
公开(公告)号:CN118214549A
公开(公告)日:2024-06-18
申请号:CN202410274227.9
申请日:2024-03-11
Applicant: 北京理工大学
IPC: H04L9/08
Abstract: 本发明提出了一种基于量子图态的安全隐私比较方法,应用于两个参与者和一个半诚实的第三方构成的量子通信网络中。具体包括三种比较方法,第一种用于确认两个数据是否相等,第二种用于确认两个数据的大小关系,适用于要比较的数据较小的情况,第三种同样用于确认两个数据的大小关系,但适用于要比较的数据非常大,现有的量子比特不足以表示的情况。本发明能在不泄露隐私数据的情况下,实现隐私比较,通过利用图态结构特性和特殊的比较方法,进一步提升量子隐私比较的安全性、易用性,进一步降低对量子资源的消耗。
-
公开(公告)号:CN117640718A
公开(公告)日:2024-03-01
申请号:CN202311396684.7
申请日:2023-10-25
IPC: H04L67/141 , H04L67/143 , H04L67/54 , H04L67/131 , H04L69/16 , H04L69/164 , G06F9/54 , G06F3/04815
Abstract: 本发明涉及虚拟空间仿真技术领域,提供一种虚拟空间运行态协同编辑方法,包括:在服务端和客户端分别启动协同编辑服务器,通过标准应用程序接口Socket在服务端与客户端之间建立网络连接;基于建立的网络连接,在客户端与服务端建立网络通信连接时、保持网络通信连接时以及客户端执行协同编辑操作时通过用户数据报协议进行数据信息通信;在客户端处于开启状态下,用户在虚拟仿真程序的三维空间中进行协同编辑的各类操作。本发明解决了现有虚拟仿真程序开发周期长且存在不安全因素的问题。
-
公开(公告)号:CN116189309B
公开(公告)日:2024-01-30
申请号:CN202310269065.5
申请日:2023-03-20
Applicant: 北京理工大学
IPC: G06V40/20 , G06V10/764 , G06V20/40
Abstract: 本申请提供一种处理人体运动数据的方法及电子设备。该方法包括:构建分层运动模型;基于所述分层运动模型定义与各层对应的本体;获取规范化运动数据,所述规范化运动数据包括分层类别、运动编码和附加信息;利用所述规范化运动数据将与所述分层类别对应的本体实例化为运动实体,所述本体的编码属性取值为所述运动编码,所述本体的名称属性和描述属性根据所述附加信息赋值;建立多个运动实体之间的关联关系,所述关联关系包括有向的构成关系、邻接关系和拥有关系;存储所述多个运动实体及所述关联关系。根据实施例的方法获取规范化运动数据并进行实体化处理,运动实体彼此关联,从而能够最大程度体现运动之间的潜在关系与特征。
-
公开(公告)号:CN116070172B
公开(公告)日:2023-06-02
申请号:CN202310212150.8
申请日:2023-03-07
Applicant: 北京理工大学
IPC: G06F18/25 , G06N3/0455 , A61B5/0205 , G06F123/02
Abstract: 本申请涉及一种增强时间序列的特征表达性的方法,用于可穿戴设备。该方法包括:接收至少一个通道的输入特征,所述输入特征为卷积神经网络根据来自穿戴式传感器的至少一个通道的时序数据提取的特征;将每个通道的输入特征划分为多个分块;对于每个通道,利用编码器将所述多个分块进行编码;对于每个通道,将每个分块表达为所述通道内通过编码器后的多个分块的融合结果;对包括多个融合结果的每个通道利用解码器进行解码,得到包括通道全局信息的多个解码分块;对于每个通道,将所述多个解码分块合并。本申请的方案可弥补由卷积神经网络处理时间序列在序列全局信息上的损失,从而提高特征的信息量和表达能力,进而提高网络的识别精度。
-
公开(公告)号:CN113989943A
公开(公告)日:2022-01-28
申请号:CN202111614473.7
申请日:2021-12-27
Applicant: 北京理工大学
IPC: G06V40/20 , G06V10/764 , G06V10/774 , G06K9/62
Abstract: 本发明涉及一种基于蒸馏损失的人体动作增量识别方法,包括:一、建立人体动作识别模型;二、使用所述人体动作识别模型对输入数据进行训练,得到模型参数;三、当需要对标注新动作类别的数据进行训练时,使用增量识别训练方法更新模型参数,具体步骤为:首先使用已经训练好的参数对新数据进行预测得到预测动作类别,称为旧知识的软标签;将旧知识的软标签与新数据和正确标签一同作为损失函数的输入,以损失函数最小化为目标,对新的模型参数进行训练;四、将待测试数据集输入训练后的动作识别模型,识别出人体动作。本发明在增加模型对新的动作类别的识别能力的同时,保留识别已有动作类别的记忆能力,降低模型训练的数据存储开销和时间复杂度。
-
公开(公告)号:CN111225265B
公开(公告)日:2021-09-10
申请号:CN202010075341.0
申请日:2020-01-22
Applicant: 北京理工大学
IPC: H04N21/431 , H04N21/442 , H04N21/4788 , H04N21/435
Abstract: 本发明实施例提供一种弹幕播放方法及装置。其中,方法包括:获取观众的眼动数据,并获取当前播放的弹幕的位置;根据观众的眼动数据和当前播放的弹幕的位置,获取观众的注视模式;根据观众的注视模式,确定弹幕的特征的调整策略;根据弹幕特征的调整策略,调整待播放的弹幕的特征。本发明实施例通过在观众观看视频媒体的过程中实时测量和分析其眼动数据,能做到针对不同观众自适应地调整弹幕播放模式,从而能实现个性化的智能弹幕播放,提高观众的观看体验。
-
公开(公告)号:CN111489415B
公开(公告)日:2021-07-23
申请号:CN202010281271.4
申请日:2020-04-10
Applicant: 北京理工大学
Abstract: 本发明涉及一种基于图像的人群点位生成方法,包括以下步骤:预先设置人群排布个体数量NUM;将图像转为二值图像,在二值图像上叠加约束表演个体位置的网格结构,每一个网格对应一个可用的个体位置;用Tg表示根据网格与待显示图像重合面积占比决定每一个网格中是否排布个体的阈值;将所有个体在表演过程中需要遵守的约束条件表示为Tg的函数f(Tg);将人群排布方案设计问题转换为优化问题;通过调节参数Tg实现优化问题求解;根据求得的最优解获得人群点位方案。本发明的方法,可以完全通过自动化的方式生成与图像相吻合并且符合人数要求的点位排布方案,在整个生成过程中不需要手工干预和调整,提高了生成效率。
-
公开(公告)号:CN111582163B
公开(公告)日:2020-12-25
申请号:CN202010378953.7
申请日:2020-05-07
Applicant: 北京理工大学
Abstract: 本发明涉及一种大规模人群位置变换方案生成方法,包括以下步骤:S1预先设置人群个体数量NUM;S2根据每幅图像,生成对应的点位,使得每幅图像所有点位数量和等于人群个体数量NUM;S3以两幅点位图间顶点的欧几里得距离为边权建立完全二分图,在完全二分图中通过最小权匹配算法实现顶点间的最优匹配;S4根据匹配结果获得两幅点位图间的每个点位坐标和映射关系,作为人群每个个体的位置变换方案。本发明通过将人群点位变换转换成图形学的顶点和区块映射问题,自动化生成不同人群点位之间的映射关系,从而实现人群点位变换,人群移动距离短,变换路线合理,并且在整个生成过程中不需要手工干预和调整,生成效率高。
-
-
-
-
-
-
-
-
-