-
公开(公告)号:CN118351670B
公开(公告)日:2025-01-03
申请号:CN202410619600.X
申请日:2024-05-20
Applicant: 北京理工大学珠海学院 , 北京理工大学
Abstract: 本发明涉及电子围栏预警领域,公开了一种基于电子围栏的区域安防预警系统,电子围栏配置模块,用于设置第一电子围栏和第二电子围栏数字边界;并划分多个安全区域;多个无人机管理模块,用于管理无人机数据;密钥生成模块,用于随机生成密钥;解密模块,用于获取相应指令;监测模块,用于获取采样数据;围栏分析模块,用于对密钥和采样数据进行分析,分析是否允许进入目标区域;预警模块,用于发出预警;通过每个安全区域对应的解密方式不同,无人机的相应指令对应其安全区域,因此当无人机执行相应指令,能判断无人机对应安全区域,通过调取对应的无人机管理模块可判断该无人机是否允许通行,缩短识别时间,且提高安全性。
-
公开(公告)号:CN118351670A
公开(公告)日:2024-07-16
申请号:CN202410619600.X
申请日:2024-05-20
Applicant: 北京理工大学珠海学院 , 北京理工大学
Abstract: 本发明涉及电子围栏预警领域,公开了一种基于电子围栏的区域安防预警系统,电子围栏配置模块,用于设置第一电子围栏和第二电子围栏数字边界;并划分多个安全区域;多个无人机管理模块,用于管理无人机数据;密钥生成模块,用于随机生成密钥;解密模块,用于获取相应指令;监测模块,用于获取采样数据;围栏分析模块,用于对密钥和采样数据进行分析,分析是否允许进入目标区域;预警模块,用于发出预警;通过每个安全区域对应的解密方式不同,无人机的相应指令对应其安全区域,因此当无人机执行相应指令,能判断无人机对应安全区域,通过调取对应的无人机管理模块可判断该无人机是否允许通行,缩短识别时间,且提高安全性。
-
公开(公告)号:CN118052709A
公开(公告)日:2024-05-17
申请号:CN202410162529.7
申请日:2024-02-05
Applicant: 北京理工大学珠海学院
IPC: G06T3/4053 , G06V10/80 , G06V10/764 , G06V10/74 , G06N3/0464 , G06N3/0455 , G06N3/08
Abstract: 本发明公开一种基于预训练深度神经网络的单输入高分辨率红外图像真彩转换方法及系统,包括:将高分辨率红外图像和目标域可见光图像单输入到真彩转换模型中;将预先训练的DINO‑ViT模型作为外部语义先验,通过深层注意力模块中键向量的自相似性来表示结构,通过CLS令牌表示全局外观;通过让生成器生成的可见光图像与目标域可见光图像的CLS令牌相匹配,使可见光图像和目标域可见光图像在外观上相一致;通过减小转换前后图像中键向量的自相似性差异,使可见光图像和输入的红外图像在空间结构上相一致,完成高分辨率红外图像真彩转换。本发明达到实现高分辨率红外图像的真彩转换,提高红外图像彩色化效果,并拓宽应用场景的目的。
-
公开(公告)号:CN110503309A
公开(公告)日:2019-11-26
申请号:CN201910692503.2
申请日:2019-07-30
Applicant: 北京理工大学珠海学院
Abstract: 本发明公开了基于主动需求响应的电动汽车充电调度方法,方法包括:采集用户的充电需求数据;所述用户包括私家车用户和出租车用户;根据用户的充电需求数据,结合电网系统条件、天气状况信息、历史报价信息和负荷数据信息,计算批发电价;建立经济激励值-用电量曲线;根据经济激励值-用电量曲线,构建最优充电调度模型;通过最优充电调度模型确定经济激励值和充电量。本发明的需求响应建立在用户自愿响应的基础上,用户有权选择是否参与响应,提高了用户的参与意愿度;另外,本发明通过对用户的经济激励,使得方案更易于实施,可广泛应用于电力系统及其自动化技术领域。
-
公开(公告)号:CN119292302A
公开(公告)日:2025-01-10
申请号:CN202411390049.2
申请日:2024-10-08
Applicant: 北京理工大学珠海学院
IPC: G05D1/46 , G06F16/9035 , G06F16/901
Abstract: 本发明公开了一种基于云计算的无人机飞行轨迹控制方法,涉及数据分析技术领域,本发明通过数据库对当前目标地点及任务数据进行同类型任务历史数据进行调取并对当前无人机飞行任务进行轨迹预规划;通过无人机实时环境监测系统对飞行环境数据进行实时评估,基于评估数据对预规划飞行轨迹进行调整判断;基于预规划飞行轨迹判断结果,对存在调整需求的轨迹点进行关联空间安全分布点分析,基于分析数据构建对应安全分布点集合;通过对集合中各空间安全分布点进行综合安全效能评估,并根据评估结果对预规划飞行轨迹进行调整;对无人机实时飞行数据进行监控端反馈,同步对实时轨迹调整记录进行显示并对无人机反馈轨迹调整命令。
-
公开(公告)号:CN117877122B
公开(公告)日:2024-12-17
申请号:CN202410162484.3
申请日:2024-02-05
Applicant: 北京理工大学珠海学院
IPC: G06V40/20 , G06T3/4053 , G06V10/764 , G06V10/774 , G06V10/80 , G06T3/4038 , G06N3/0464 , G06N3/0455 , G06N3/0442 , G06N3/08
Abstract: 本发明提供一种基于轻量型ViT和注意力机制的红外人体姿态估计方法,其包括获取红外图像数据;构建MSF‑MobileViT网络模型,通过MSF‑MobileViT网络模型提取得到红外图像数据的高分辨率且语义信息丰富的特征表示;构建DAs‑MPPE网络模型,通过DAs‑MPPE网络模型生成L来编码肢体之间的关联度,再生成S来预测关节点的位置;在两个网络模型的协同训练过程中,采用一致性和置信度评估两种评估标准,多次输出选取可信度高的无标签数据纳入对方网络的训练集中,稳定的选取无标签数据添加伪标签。本发明将MSF‑MobileViT网络模型和DAs‑MPPE网络模型结合进行红外人体姿态估计,从而定位图像中所有人的关节点和肢体位置,有效克服了现有红外人体行为识别技术中存在的弊端。
-
公开(公告)号:CN117633587B
公开(公告)日:2024-12-06
申请号:CN202311573437.X
申请日:2023-11-23
Applicant: 北京理工大学珠海学院
IPC: G06F18/24 , G10L25/63 , G10L25/30 , G10L25/18 , G06F18/25 , G06N20/00 , G06N3/045 , G06N3/0464 , G06N3/048
Abstract: 本发明公开涉及基于迁移学习的音频和文本的宽时间范畴情感识别方法,通过使用预训练模型VGGish和BERTbase提取音频和文本两个模态的情感特征,从不同的角度对目标人物的情感进行分析;通过事实描述和文本描述进行情感特征的提取,在宽时间范畴内对目标人物目前的情感状态进行更准确的推理,通过在SVCEmotion数据集的音频和文本描述数据上的实验证明,VGGish和BERTbase预训练模型均能在本文使用的数据集上实现良好的效果,模型在预训练过程中学习到的参数能够有效的提升其在目标任务上的表现;对比实验证明,SVCEmotion数据集中针对宽时间范畴下的情感识别任务引入的情境描述可以为情感识别提供线索,且与事实描述结合能大幅提升情感识别效果。
-
公开(公告)号:CN117636426B
公开(公告)日:2024-11-22
申请号:CN202311573364.4
申请日:2023-11-23
Applicant: 北京理工大学珠海学院
IPC: G06V40/16 , G06V10/80 , G06V10/82 , G06V20/40 , G06N3/0442 , G06N3/045 , G06N3/0464 , G06N3/048
Abstract: 本公开涉及一种基于注意力机制的面部和情景情感识别方法,通过引入注意力机制,使模型在特征提取过程中将更多的注意力用于关键信息的学习,在两个支路的情感识别中都有效提升了模型的识别率。在面部表情识别支路,通道注意力机制的引入提升了模型对关键信息的表达能力,特征选择融合方法缓解了面部表情不确定性引起的模型表现差的问题。在情景支路使用多尺度融合的方式增强模型对图像高级语义和空间信息的表达能力,通过高级特征和低级特征的互补,提升了模型的情景情感识别效果,并在最后的对比实验中证明,本申请的情感识别方法在数据集上能够得到比其他方法更好的识别效果。
-
公开(公告)号:CN118038550A
公开(公告)日:2024-05-14
申请号:CN202410162481.X
申请日:2024-02-05
Applicant: 北京理工大学珠海学院
IPC: G06V40/20 , G06V10/80 , G06V20/40 , G06N3/0464 , G06N3/08 , G06V10/764 , G06F17/16 , G06F17/18
Abstract: 本发明提供一种基于ViT和ST‑GCN的红外人体行为识别方法,其包括获取红外视频数据;构建Lite‑ViTAPose姿态估计模块,利用Lite‑ViTAPose姿态估计模块提取红外视频中每一帧的人体姿态,将提取到的人体姿态经过处理、转换形成骨骼序列,作为网络输入;其中,Lite‑ViTAPose姿态估计模块包括基于多尺度特征融合的MobileViT模块和基于残差双头注意力机制的多人姿态估计器DAs‑MPPE;构建2s‑ViTGCN行为估计模块,基于输入的骨骼序列,利用2s‑ViTGCN提取该骨骼序列的时空特征,从而识别出人体的动作;其中,2s‑ViTGCN行为估计模块包括双流神经网络、ViTGCN块以及ViTGCN层。本发明将Lite‑ViTAPose模块和2s‑ViTGCN行为估计模块结合进行红外人体行为识别,有效克服了现有红外人体行为识别技术中存在的弊端。
-
公开(公告)号:CN117935330A
公开(公告)日:2024-04-26
申请号:CN202311787209.2
申请日:2023-12-22
Applicant: 北京理工大学珠海学院
Abstract: 本发明提供一种基于图卷积网络多源域融合的行人重识别方法,其包括在选取数据集,分为目标域数据集和源域数据集;构建基于ViT的特征提取模型;基于图卷积网络进行多源域融合;为不同的源域分别设置有分类器,通过将目标域中的所有特征分别与所有类别中心计算距离,并按照该距离将其伪标签分配给最近的类别中心所属的类别;将提取后的特征分为两个支路计算损失函数,在使用多个损失函数训练学习行人重识别网络模型,输入图像数据至训练好的模型,输出行人重识别结果。应用本发明可以有效实现对不同领域特征的深度融合,以及达到高精度的无监督域适应行人重识别的目的。
-
-
-
-
-
-
-
-
-