-
公开(公告)号:CN118138704A
公开(公告)日:2024-06-04
申请号:CN202410258715.0
申请日:2024-03-07
Applicant: 北京理工大学重庆创新中心 , 北京理工大学 , 酷黑科技(北京)有限公司
Abstract: 本发明公开了一种视觉里程计方法,涉及图像处理领域,多应用在无人驾驶方向。本发明针对目前视觉里程计方法在非线性优化求解过程容易陷入局部极小值的问题,提出了一种新型视觉里程计。在有新的图像输入后,首先进行预处理,生成金字塔图像,计算每层金字塔图像的每个像素的梯度及梯度模长;再计算得到第一个关键帧,平均尺度及关键帧上的像素点;以假设的不同运动状态为图像跟踪的初始值迭代跟踪新帧,根据跟踪情况决定是否插入关键帧;将跟踪结果作为优化的初始值,对关键帧和非关键帧进行优化。本发明可在快速运动情况下,可以得到一个较优的姿态初始值,以更好的完成后端优化求解,可避免非线性局部极小值问题。
-
公开(公告)号:CN118052952A
公开(公告)日:2024-05-17
申请号:CN202410452043.7
申请日:2024-04-16
Applicant: 中国建筑一局(集团)有限公司 , 中建一局集团建设发展有限公司 , 中建市政工程有限公司 , 北京理工大学
IPC: G06T17/10 , G06T17/20 , G06T15/04 , G06T3/4038 , G06T5/50 , G06T7/50 , G06T7/246 , G06T7/73 , G06V10/44 , G06V10/46 , G06V10/75 , G06V10/74
Abstract: 本发明公开了一种隧道掌子面结构面全景图重建方法及装置。本发明首先移动获取隧道掌子面结构面的各局部图像,然后采用基于视觉三维重建的拼接方法,不直接在二维图像层面进行操作,而是先通过局部图像还原隧道掌子面的三维模型,再将三维模型进行正交映射生成掌子面的全景拼接图像,最终生成的图像可以认为是近似正射的,图像畸变更小,还原更真实的掌子面信息。本发明方法克服了单幅掌子面图像边缘畸变与清晰度问题,即使在有物体局部遮挡的情况下也可以获取可用于分析处理的掌子面结构面全景图像。
-
公开(公告)号:CN116301026A
公开(公告)日:2023-06-23
申请号:CN202310065839.2
申请日:2023-01-13
Applicant: 中国建筑一局(集团)有限公司 , 中建市政工程有限公司 , 北京理工大学
IPC: G05D1/10
Abstract: 本发明公开了一种复杂环境下四旋翼无人机大机动敏捷飞行方法。本发明基于四旋翼无人机动力学的微分平坦性质设计机动性轨迹生成算法,通过minimum snap构建轨迹规划最优化函数,利用复合串级PID控制器实现了对机动性轨迹的可靠跟随。本发明还给出了一种适用于大机动敏捷飞行的四旋翼无人机硬件结构,具有轻量化、紧凑化的设计和良好的动力学对称性。本发明无需机器学习方法,仅依靠机载传感器和算力资源实现实时规划,解决了四旋翼无人机在复杂环境下实现大加速度、大姿态角的机动敏捷飞行问题,充分发挥四旋翼无人机的飞行潜力,扩展了其执行特殊任务的能力。
-
公开(公告)号:CN105487660A
公开(公告)日:2016-04-13
申请号:CN201510834004.4
申请日:2015-11-25
Applicant: 北京理工大学
IPC: G06F3/01
CPC classification number: G06F3/011
Abstract: 本发明公开一种基于虚拟现实技术的沉浸式舞台表演交互方法及系统,能够提供一种新型,沉浸式的虚拟舞台交互方式。所述方法包括:S1、利用固定第三视角的红外深度摄像头采集穿戴可穿戴式显示头盔的使用者的深度图像数据,其中,所述可穿戴式显示头盔包括第一目镜和第二目镜,所述第一目镜位于所述使用者左眼的前方,所述第二目镜位于所述使用者右眼的前方;S2、从所述深度图像数据中提取所述使用者的骨骼关节点的位置数据;S3、利用所述使用者的骨骼关节点的位置数据驱动预设的虚拟演员模型在预设的虚拟舞台模型中动作,得到模拟影像,并将所述模拟影像分别以适合左、右眼观看的模式同步显示在所述第一目镜和第二目镜中。
-
公开(公告)号:CN114970139A
公开(公告)日:2022-08-30
申请号:CN202210565265.0
申请日:2022-05-23
Applicant: 北京理工大学
IPC: G06F30/20
Abstract: 本发明公开了属于二次电池技术领域的一种考虑电极材料局部失活的锂电池电极仿真分析方法。包括步骤:S1、确定电极材料的初始结构;S2、建立电极充电或放电过程的电化学数值模型;S3、建立电极材料局部失活判定函数;S4、构建电极材料的有限元分析模型并对电极充电或放电过程进行计算求解;S5、用于获取考虑电极材料存在局部失活情况时的电极活性物质分布以及剩余有效循环容量,以预测锂电池电极的工作状态;实现了对电极材料局部失活的产生原因、其对电化学性能的影响机制及调控方式进行定量准确的探究分析,本发明高效低成本地预测电极工作状态并指导锂电池电极的设计与优化。
-
公开(公告)号:CN118052952B
公开(公告)日:2024-07-26
申请号:CN202410452043.7
申请日:2024-04-16
Applicant: 中国建筑一局(集团)有限公司 , 中建一局集团建设发展有限公司 , 中建市政工程有限公司 , 北京理工大学
IPC: G06T17/10 , G06T17/20 , G06T15/04 , G06T3/4038 , G06T5/50 , G06T7/50 , G06T7/246 , G06T7/73 , G06V10/44 , G06V10/46 , G06V10/75 , G06V10/74
Abstract: 本发明公开了一种隧道掌子面结构面全景图重建方法及装置。本发明首先移动获取隧道掌子面结构面的各局部图像,然后采用基于视觉三维重建的拼接方法,不直接在二维图像层面进行操作,而是先通过局部图像还原隧道掌子面的三维模型,再将三维模型进行正交映射生成掌子面的全景拼接图像,最终生成的图像可以认为是近似正射的,图像畸变更小,还原更真实的掌子面信息。本发明方法克服了单幅掌子面图像边缘畸变与清晰度问题,即使在有物体局部遮挡的情况下也可以获取可用于分析处理的掌子面结构面全景图像。
-
公开(公告)号:CN116048120B
公开(公告)日:2024-04-16
申请号:CN202310036673.1
申请日:2023-01-10
Applicant: 中国建筑一局(集团)有限公司 , 中建市政工程有限公司 , 北京理工大学
IPC: G05D1/46 , G05D109/20
Abstract: 本发明公开了一种未知动态复杂环境下小型四旋翼无人机自主导航系统及方法。本发明完全利用机载深度相机传感器感知周围环境,实现对环境中的动态障碍物的检测和运动状态估计,通过改进的最优相互避碰集(ORCA)算法实现对环境中的动态和静态障碍物进行避障,利用B样条曲线生成平滑连续的运动轨迹到达目标点。本发明解决了小型四旋翼无人机在未知的、包含动态和静态障碍物的非结构化环境下,无碰撞地到达预定目标点的自主导航问题。
-
公开(公告)号:CN116048120A
公开(公告)日:2023-05-02
申请号:CN202310036673.1
申请日:2023-01-10
Applicant: 中国建筑一局(集团)有限公司 , 中建市政工程有限公司 , 北京理工大学
IPC: G05D1/10
Abstract: 本发明公开了一种未知动态复杂环境下小型四旋翼无人机自主导航系统及方法。本发明完全利用机载深度相机传感器感知周围环境,实现对环境中的动态障碍物的检测和运动状态估计,通过改进的最优相互避碰集(ORCA)算法实现对环境中的动态和静态障碍物进行避障,利用B样条曲线生成平滑连续的运动轨迹到达目标点。本发明解决了小型四旋翼无人机在未知的、包含动态和静态障碍物的非结构化环境下,无碰撞地到达预定目标点的自主导航问题。
-
公开(公告)号:CN105404395B
公开(公告)日:2018-04-17
申请号:CN201510834854.4
申请日:2015-11-25
Applicant: 北京理工大学
Abstract: 本发明公开一种基于增强现实技术的舞台表演辅助训练方法及系统,能检测使用者动作的标准性。方法包括:利用第一、二摄像头分别采集穿戴可穿戴式显示头盔的使用者左眼和右眼视野范围内的真实场景图像,利用固定第三视角的红外深度摄像头采集使用者的深度图像数据;提取使用者的图像数据和使用者的骨骼关节点的位置数据;将真实场景图像与图像数据及预设的指导者的影像进行融合,得到融合影像;利用预设的指导者的骨骼关节点的位置数据和使用者的骨骼关节点的位置数据检测使用者的动作是否标准,在使用者的动作不标准时,在融合影像上的相应位置进行标识;将融合影像分别以适合左、右眼观看的模式同步显示在可穿戴式显示头盔的第一、二目镜中。
-
公开(公告)号:CN105404395A
公开(公告)日:2016-03-16
申请号:CN201510834854.4
申请日:2015-11-25
Applicant: 北京理工大学
CPC classification number: G06F3/011 , G06F2203/012 , G06K9/00342
Abstract: 本发明公开一种基于增强现实技术的舞台表演辅助训练方法及系统,能检测使用者动作的标准性。方法包括:利用第一、二摄像头分别采集穿戴可穿戴式显示头盔的使用者左眼和右眼视野范围内的真实场景图像,利用固定第三视角的红外深度摄像头采集使用者的深度图像数据;提取使用者的图像数据和使用者的骨骼关节点的位置数据;将真实场景图像与图像数据及预设的指导者的影像进行融合,得到融合影像;利用预设的指导者的骨骼关节点的位置数据和使用者的骨骼关节点的位置数据检测使用者的动作是否标准,在使用者的动作不标准时,在融合影像上的相应位置进行标识;将融合影像分别以适合左、右眼观看的模式同步显示在可穿戴式显示头盔的第一、二目镜中。
-
-
-
-
-
-
-
-
-