-
公开(公告)号:CN118798484A
公开(公告)日:2024-10-18
申请号:CN202411138863.5
申请日:2024-08-19
Applicant: 北京理工大学
IPC: G06Q10/063 , G06Q10/04 , G06Q50/26 , G06N3/006
Abstract: 本申请涉及一种基于应急事件模拟的预警信息生成方法及装置。该方法包括:确定应急事件源的事件特征集合,所述事件特征集合包括:事件位置、物理范围、开始时间、持续时间、事件强度、事件可视度;将情感传染模型部署到智能体中;将异质化行为模型部署到所述智能体中;A星算法作为所述智能体的宏观导航算法;启动应急事件源,并观测所述智能体的行动路径;根据所述行动路径,生成应急事件预警信息。本申请涉及的基于应急事件模拟的预警信息生成方法及装置,能够对应急事件中智能体复杂的行为进行模拟,进而生成警示信息和疏导信息,还能够为应急管理机构提供科学化的决策支持,增强应急响应的效率。
-
公开(公告)号:CN116189310B
公开(公告)日:2024-01-23
申请号:CN202310269086.7
申请日:2023-03-20
Applicant: 北京理工大学
Abstract: 本申请涉及一种提供人体运动数据集的方法及电子设备。该方法包括:接收创建多个运动实体,所述多个运动实体与至少一个第一格式运动数据关联;建立多个运动实体之间的关联关系,所述关联关系包括有向的构成关系、邻接关系和拥有关系;将所述多个运动实体和所述关联关系存储于图数据库,将所述第一格式运动数据存储于关系型数据库;基于所述图数据库和所述关系型数据库提供统一的人体运动数据集。本申请的方案能够支撑潜在运动关系的挖掘,并保障数据的完整性与一致性。
-
公开(公告)号:CN115188025A
公开(公告)日:2022-10-14
申请号:CN202210813139.2
申请日:2022-07-11
Applicant: 北京理工大学
IPC: G06V40/10 , G06V40/20 , G06V10/82 , G06V10/774
Abstract: 本公开涉及一种基于循环神经网络的人体动作识别方法,属于人工智能人体动作识别技术领域。本公开对人体骨架时序数据使用循环神经网络进行动作识别,有效改善了识别效果。进一步通过将骨架数据转换成一系列骨骼的方向向量作为新的空间特征来代替直接将三维坐标进行输入,增强了输入数据在空间中的特征表现,减弱了现有技术对于空间运动信息获取不足的影响。进一步通过在数据集25个关节中选取其中对运动重要的15个关节,两两结合组成105个方向向量来增强空间特征,增强输入数据在空间中的特征表现的同时,降低了输入数据维度,提高了神经网络处理效率。进一步通过对RNN神经网络的改进取得更好的人体动作识别效果。
-
公开(公告)号:CN111475969B
公开(公告)日:2021-02-09
申请号:CN202010406499.1
申请日:2020-05-14
Applicant: 北京理工大学
Abstract: 本发明涉及一种大规模人群行为仿真系统,包括视频时间分片模块、图像点位生成模块、人群位置映射模块、三维仿真模块,其中:视频时间分片模块对人群行为效果视频进行帧采样,获得一系列关键帧图像;图像点位生成模块根据每帧关键帧图像生成对应的人群点位,使得点位数目等于预设人群个体数NUM;人群位置映射模块根据每相邻两视频帧的人群点位,生成每相邻两视频帧之间的点位映射关系;三维仿真模块将每帧关键帧对应的时间、人群点位和每相邻两视频帧之间的点位映射关系作为数据源,使用三维引擎实现人群行为三维仿真。本发明提供了从创意视频到大规模人群行为规划以及三维效果呈现的全过程自动化解决方案,极大地方便了人群行为规划设计过程。
-
公开(公告)号:CN112287568A
公开(公告)日:2021-01-29
申请号:CN202011584257.8
申请日:2020-12-28
Applicant: 北京理工大学
IPC: G06F30/20 , G06F111/04
Abstract: 本发明涉及一种表演平行仿真系统,包括实体管理模块、状态管理模块、时序管理模块、行为管理模块、条件管理模块及交互模块,其中:实体管理模块用于分类创建、编辑、管理表演中所有实体;状态管理模块用于创建、编辑、管理表演中的状态;时序管理模块用于创建、编辑、管理表演中的时序;行为管理模块用于创建、编辑、管理表演中的行为;条件管理模块用于创建、编辑、管理表演中激发表演实体进行某种行为的条件;交互模块用于在真实表演与表演平行仿真系统之间进行信息交互。本发明可以辅助演出的创意设计、表演数字资产的复用、舞台道具的实时控制、表演过程的监测评估,并且极大地提高效率、节约成本。
-
公开(公告)号:CN111738905A
公开(公告)日:2020-10-02
申请号:CN202010822867.0
申请日:2020-08-17
Applicant: 北京理工大学
Abstract: 本发明涉及一种大型人群表演显示屏辅助美术造型生成方法,包括以下步骤:S0、设计源图像;S1、将源图像转换成点位图,从而得到每块显示屏的空间坐标;S2、将每块显示屏抽象为一个几何形状,在源图像平面上展开,根据展开后的几何形状与源图像的对应关系,得到每块显示屏在源图像中的对应分割区域;S3、对每块显示屏循环执行以下操作:S31、从源图像中分割出显示屏对应分割区域;S32、将对应分割区域内容输出到显示屏的显示控制器;S33、根据显示控制器的内容在显示屏上显示对应图像。本发明通过演员运动以及手持显示屏的辅助精准实现设计人员创意的图像和视频美术造型,并通过对存储空间和视频处理显示方式的管理实现视频的实时显示。
-
公开(公告)号:CN111680671A
公开(公告)日:2020-09-18
申请号:CN202010810211.7
申请日:2020-08-13
Applicant: 北京理工大学
IPC: G06K9/00 , G06T7/269 , H04N21/2187
Abstract: 本发明涉及一种基于光流的摄像方案自动生成方法,包括以下步骤:对已有直播视频进行镜头分割;选取一段分割后的视频片段,标定摄像机类型,并逐帧提取得到视频关键帧序列;对关键帧图像检测并提取每帧的背景特征点;利用匹配的特征点得到摄像机帧间运动的旋转矩阵和平移向量;根据摄像机帧间运动参数得到对应于每个关键帧时间点的摄像机世界坐标和姿态,从而获得摄像机在摄像过程中的运动轨迹和姿态参数;对所有视频片段进行摄像机运动轨迹和姿态参数生成,得到直播过程使用的所有摄像机参数构成的直播摄像方案。本发明为直播摄像方案的学习提供了辅助方法和工具,也为直播摄像过程的自动化提供了可能。
-
公开(公告)号:CN111539375A
公开(公告)日:2020-08-14
申请号:CN202010387654.X
申请日:2020-05-09
Applicant: 北京理工大学
IPC: G06K9/00
Abstract: 本发明涉及一种大规模人群行为辅助规划方法,包括以下步骤:S1设计人群行为效果视频;S2对表现人群行为效果的视频进行动态帧采样;S3根据采样得到的每个采样帧,生成对应的点位,使得每幅图像所有点位数量等于用户预先设置的人群个体数量NUM;S4建立每两帧相邻采样帧之间的点位坐标映射关系;S5根据采样帧对应的时间、点位坐标以及采样帧之间的点位坐标映射关系,获得每个人群个体在行为过程中的坐标及变换,从而得到人群行为方案。本发明提供了从创意视频到大规模人群行为规划的全过程自动化解决方案,设计方案合理,硬件利用效率高。
-
公开(公告)号:CN111402289A
公开(公告)日:2020-07-10
申请号:CN202010210033.4
申请日:2020-03-23
Applicant: 北京理工大学
Abstract: 本发明涉及一种基于深度学习的人群表演误差检测方法,包括预演仿真步骤、表演数据采集步骤、演员轨迹数据处理步骤、误差检测步骤:预演仿真步骤对表演创意方案进行预演仿真,并输出各表演元素在表演过程中的仿真数据;表演数据采集步骤使用视频采集设备采集表演的视频;演员轨迹数据处理步骤从采集的表演视频中提取出演员的实际运动轨迹;误差检测步骤将计算得到的演员实际运动轨迹与预演仿真数据中的标准运动轨迹进行误差检测并输出误差检测结果;本发明提供的人群表演误差检测方法,可以实时检测出演员表演过程中的误差,提供定量的误差分析结果,辅助编创人员直观的发现演员表演中存在的问题,并且易于实施。
-
公开(公告)号:CN111339687A
公开(公告)日:2020-06-26
申请号:CN202010225455.9
申请日:2020-03-26
Applicant: 北京理工大学
Abstract: 本发明涉及一种基于深度学习的人群表演现场排练系统,用于根据预演仿真系统生成的预演仿真数据进行现场排练,包括:训练手册生成模块、设备执行数据监控模块、演员表演数据采集模块、误差检测模块、现场指挥模块,其中:训练手册生成模块生成针对每个演员的训练手册;设备执行数据监控模块控制表演设备,并监测设备运行中的各项参数;演员表演数据采集模块使用视频采集设备采集表演的视频;误差检测模块使用深度学习方法从表演视频中提取出演员的实际运动轨迹,并输出误差检测数据;现场指挥模块将数据呈现给指挥人员,并将指挥人员对设备和表演方案的修改反馈给预演仿真系统。本发明可以快速准确的发现排练中的问题,为现场指挥提供辅助手段和数据支持。
-
-
-
-
-
-
-
-
-