-
公开(公告)号:CN118610586A
公开(公告)日:2024-09-06
申请号:CN202410575514.3
申请日:2024-05-10
Applicant: 北京理工大学
IPC: H01M10/0569 , H01M10/052
Abstract: 本申请公开了锂电池电解液组合物及锂电池。锂电池电解液组合物包括:式(1)所示结构的羧酸酯:#imgabs0#式(1)中,R1、R2、R3独立地选自卤素原子、C1‑C10烷基、C1‑C10氟代烷基,或R1、R2、R3及其所连接的碳替换为芳基或氟代芳基;以及第一溶剂和可溶性的锂盐;式(1)所示结构的羧酸酯、第一溶剂和可溶性的锂盐的质量比为1~10:0.1~5:1,R4选自C1‑C10烷基、C1‑C10卤代烷基、C6‑C30芳基、C6‑C30卤代芳基。本申请实施例的锂电池电解液组合物及锂电池,式(1)所示结构的羧酸酯与第一溶剂及可溶性的锂盐形成锂电池电解液组合物,杜绝氢气的产生,应用于锂电池后具有良好的电化学性能和安全性能,实现锂金属电池的高库伦效率与稳定循环。
-
公开(公告)号:CN118444674A
公开(公告)日:2024-08-06
申请号:CN202410325937.X
申请日:2024-03-21
Applicant: 北京理工大学
IPC: G05D1/43 , G05D1/644 , G05D105/22
Abstract: 本发明公开了一种漂移快速转向的轨迹规划与控制方法,将道路约束下的漂移快速转向问题表述为基于最优控制的带约束非线性规划问题(NLP),结合高斯伪谱法,求解所表述的非线性规划问题,实现高精度的漂移快速转向轨迹规划;结合观测器数据,设计基于前馈‑反馈的轨迹跟踪控制器,提高车辆漂移快速转向过程轨迹跟踪控制的准确性和鲁棒性。可以根据车辆和地面条件,判断漂移快速转向所需最小道路宽度;并可以根据道路宽度约束,规划出最速漂移转向轨迹并进行轨迹跟踪控制,提高无人车辆的高机动性,算法可应用于油车和电车,可应用于后驱、四轮驱动等多种无人车辆平台,可根据不同转向角度及不同道路约束应用于多种场景。
-
公开(公告)号:CN118351236A
公开(公告)日:2024-07-16
申请号:CN202410416883.8
申请日:2024-04-08
Applicant: 北京理工大学
Abstract: 本发明公开了一种基于可变形辐射场的交通场景多车动态实时重建方法,能够解决使用NeRF方法高质量动态重建多车交通场景的实时性与数据传输压力问题,主要包含如下步骤:使用初始时刻数据重建NeRF静态场景;在NeRF空间中检测各车辆3D边界框,变换NeRF空间以对齐真实场景坐标系;将获取得到的各目标车辆位置坐标并滤波,并估计缺失输入时刻的坐标;在NeRF空间中通过移动3D边界框间接移动对应车辆到指定时间步,先由前后时刻位移决定车辆航向角与俯仰角,然后查询体密度判断当前车辆与路面的相对姿态,当发生穿模、浮空时微调车辆六自由度使四轮贴合路面;本发明实现了低数据传输量下的多车交通场景的高质量实时动态重建。
-
公开(公告)号:CN118281347A
公开(公告)日:2024-07-02
申请号:CN202410361655.5
申请日:2024-03-27
Applicant: 北京理工大学
IPC: H01M10/0569 , H01M10/0566 , H01M10/0525 , H01G11/50
Abstract: 本申请提供了一种电解液、二次电池和电子设备,该电解液包括:有机溶剂和电解质盐,所述有机溶剂包括腈类溶剂,所述腈类溶剂中氰基的邻位碳原子为季碳原子。根据本申请,该电解液中的腈类溶剂中氰基的邻位碳原子为季碳原子,该腈类溶剂相对于电池负极具有较高的稳定性,因此该电解液既可以利用腈类溶剂自身高介电常数、低粘度和高闪点的优点,又能降低由于腈类溶剂与电池负极不兼容对电池性能的影响。
-
公开(公告)号:CN118262050A
公开(公告)日:2024-06-28
申请号:CN202410391891.1
申请日:2024-04-02
Applicant: 北京理工大学
IPC: G06T17/00 , G06T5/70 , G06T5/60 , G06V10/74 , G06V10/774 , G06V10/82 , G06N3/0455 , G06N3/0475 , G06N3/084
Abstract: 本发明提供了一种基于生成式场景图像的稀疏视图三维重建方法,属于视觉三维重建领域;该方法首先根据原始场景图像与唯一标识符微调预训练条件去噪扩散模型,然后训练神经辐射场,建立神经辐射场渲染图像与原始输入图像的重建误差损失函数;根据得到的渲染图像和唯一标识符对条件去噪扩散模型执行去噪过程得到生成图像,建立渲染图像与生成图像的扩散误差损失函数;最后建立相似度评估函数,并扩充扩散模型微调数据集;交替训练扩散模型和神经辐射场;该发明将扩散模型及其微调技术引入稀疏视图三维重建过程,使微调后的扩散模型生成的图像与真实场景相符,并用以扩充原始数据集来训练神经辐射场,有效改善因稀疏性带来的模糊和伪影问题。
-
公开(公告)号:CN118015229A
公开(公告)日:2024-05-10
申请号:CN202410107609.2
申请日:2024-01-25
Applicant: 北京理工大学 , 中国兵器工业计算机应用技术研究所
Abstract: 本发明涉及一种结合视觉深度估计的目标协同感知方法,包括:观察者获取协同感知的目标信息;根据目标类型获取目标的MESH模型,并将目标的位置坐标与姿态转换为目标MESH模型的n个控制点在目标载体坐标系中的坐标;进行目标载体坐标系至观察者观察坐标系的坐标转换得到n个控制点在观察者观察坐标系中的坐标;根据n个控制点的坐标进行视觉深度估计判断目标是否位于观察者观察视野以及是否被观察者视野中环境遮挡;当位于观察者观察视野且被环境遮挡时,则根据控制点坐标生成目标的增强现实图像。本发明实现了不同观察视角的协同感知,提升任务执行效率。
-
公开(公告)号:CN118015207A
公开(公告)日:2024-05-10
申请号:CN202410107601.6
申请日:2024-01-25
Applicant: 中国兵器工业计算机应用技术研究所 , 北京理工大学
Abstract: 本发明涉及一种增强现实图像中目标MESH模型的生成和调用方法,包括:目标MESH模型库建立步骤,利用采集的多种候选目标的多视角环视视频,进行离线预训练,生成多种候选目标的MESH模型,建立目标模型库;目标MESH模型在线调用步骤,根据目标类型从目标模型库中获取目标的MESH模型,进行目标位置对齐和坐标转换,输出MESH模型的n个控制点在观察者观察坐标系中的坐标,然后,根据n个控制点在观察坐标系中的坐标,进行目标是否位于观察者的观察视野以及是否被观察者视野中环境遮挡的判断,当位于观察视野且被遮挡时,则根据控制点坐标在观察视野中生成目标的增强现实图像。本发明生成目标增强现实图像还原目标在场景中的真实情况。
-
公开(公告)号:CN113506342B
公开(公告)日:2024-01-02
申请号:CN202110638485.7
申请日:2021-06-08
Applicant: 北京理工大学
IPC: G06T7/73 , G06T7/80 , G06V10/74 , G06V10/762 , G06V10/774
Abstract: 本发明提出一种基于多相机全景视觉的SLAM全向回环校正方法,该方法利用多相机全景视觉系统提供的全景图像信息,对运动载体周围的环境进行全方位的感知,解决现有SLAM方法所用回环校正算法无法在传感器朝向差异较为明显时检测出相同场景的问题;通过冗余的视野范围,可以保证环境信息感知时没有盲区;通过去除匹配特征点中的重复信息来减弱冗余视野范围对回环检测的影响,可以在传感器位置相同时准确地检测出运动轨迹中的回环;在回环校正过程中通过特征点、地图点的全局匹配,使回环校正算法在传感器朝向差异较大的情况下也能够计算两个关键帧之间多相机全景视觉系统的相似变换,进而令回环校正算法仅需传感器处于曾经经过的位置即可完成回环校正。
-
公开(公告)号:CN116934857A
公开(公告)日:2023-10-24
申请号:CN202310875673.0
申请日:2023-07-17
Applicant: 北京理工大学
Abstract: 本发明提供一种基于全景图片的视觉定位方法、装置、设备及介质,属于机器人视觉定位技术领域;包括获取一定数量的全景图片;计算特征点与特征描述子;选定参考帧;计算其余图片与参考帧的特征点对应关系;选定与参考帧最相似的一帧图片并计算位置与姿态关系;三角化计算特征点深度信息;通过PnP法计算其余图片的位置与姿态信息;通过光束平差法对全部定位信息进行优化,使用全景图片可以全面地获取周围的环境信息,进行视觉定位时可以极大地提高结果的稳定性和准确性,特别是在退化场景时,仍可以获取有效的纹理信息,继续进行定位,本发明的方法提高了视觉定位的稳定性与准确性,拓展了应用场景。
-
公开(公告)号:CN116863120A
公开(公告)日:2023-10-10
申请号:CN202310705333.3
申请日:2023-06-14
Applicant: 北京理工大学
Abstract: 本发明提供了一种基于适用场景判断的交叉视角定位方法,通过空中遮挡系数和地面特征系数对当前场景是否适合交叉视角定位进行判断,有益于提高实际应用中的计算资源使用效率,减轻计算单元负担;有益于有效降低交叉视角定位噪声,减少定位过程的耗时,提高定位模块的实际性能。
-
-
-
-
-
-
-
-
-