-
公开(公告)号:CN119992498A
公开(公告)日:2025-05-13
申请号:CN202510075425.7
申请日:2025-01-17
IPC: G06V20/56 , G06V20/58 , G06V10/26 , G06V10/422 , G06V10/82
Abstract: 本发明公开了一种基于点云与图像的道路宽度测量方法、系统、设备及介质,包括:获取道路图像及对应的地面区域点云数据;对所述道路图像进行道路分割,基于道路分割结果进行道路掩膜拟合,得到拟合的道路掩膜;将拟合后的道路掩膜投影到地面区域点云数据中并进行过滤处理,得到与道路掩膜对应的点云路面数据;在所述点云路面数据中筛选位于道路左右两侧的点,构建左右边缘点集;基于所述左右边缘点集获取岔路识别结果、道路宽度信息及对应行进方向的宽度变化曲线。本发明克服了单一数据源的局限性以及传感器视野受限的问题,能够实现更加精确、实时且稳定的道路宽度检测。
-
公开(公告)号:CN118960720A
公开(公告)日:2024-11-15
申请号:CN202411085135.2
申请日:2024-08-08
Applicant: 成都信息工程大学
IPC: G01C21/00
Abstract: 本发明公开了一种全生命周期SLAM系统的地图更新方法,属于无人驾驶定位导航领域,S1、采用之前某个时期的由IMU和3D激光雷达物理实体所组成的SLAM系统对环境进行实体数据采集与处理,建立此环境的地图,我们称之为先验地图;S2、在当前时期下对同一环境进行实时的3D激光雷达扫描,获得当前的实时扫描帧;S3、当前帧与先验地图进行实时回环检测与配准,并对比不同时期的地图识别低动态物体与半静态物体,进行点云的增加与删除。本发明提供一种全生命周期SLAM系统的地图更新方法,先验地图的SLAM可以有效的滤除动态点,达到更好的建图效果,之后的地图更新方法可以大大低减少陌生环境实时SLAM的计算成本,并同时对环境地图进行更新、维护。
-
公开(公告)号:CN118505536A
公开(公告)日:2024-08-16
申请号:CN202410671231.9
申请日:2024-05-28
Applicant: 成都信息工程大学 , 四川省机械研究设计院(集团)有限公司
IPC: G06T5/50 , G06N3/0455 , G06N3/0464
Abstract: 本发明属于图像处理技术领域,并公开了一种具有图像长距离依赖特征的红外图像与可见光图像融合方法、系统、装置和介质,包括:获取待融合图像集,待融合图像集内包括红外图像和可见光图像;将待融合图像集输入图像融合模型中进行图像融合,得到融合图像;图像融合模型是在基于自编码器的密集块网络模型的基础上进行改进,在主干网络中加入了图像长距离依赖特征模块,将原有简单的卷积模块精细化,提高了图像上下层信息联系,建立了图像长距离依赖关系,改善了普通下采样方法导致分辨率下降、局部信息丢失的问题。本发明所述技术方案图像融合质量高、速度快,解决了现有技术中出现的融合性能不佳、融合速度较慢的问题。
-
公开(公告)号:CN117152199A
公开(公告)日:2023-12-01
申请号:CN202311116077.0
申请日:2023-08-30
Applicant: 成都信息工程大学
IPC: G06T7/207 , G06T7/215 , G06V10/26 , G06V10/762 , G06V10/80
Abstract: 本发明公开一种动态目标运动矢量估计方法、系统、设备及存储介质,涉及无人驾驶环境感知技术领域。所述方法包括:获取目标区域的连续帧点云图;将连续帧点云图投影到距离图像中,得到投影图像;提取投影图像中的前景点和背景点,并通过背景点消除自运动,得到消除自运动后的前景点云的距离图像;对相邻帧距离图像作差,并在时间上的特征信息进行融合,得到融合特征;对融合特征进行运动分割,得到运动目标;对分割后的运动目标进行实例聚类,并在时间上进行关联,得到实例间的时间关联信息;根据时间关联信息计算实例间的核心点偏移量,并根据ICP配准方法和核心点偏移量进行运动矢量估计,得到动态目标的运动矢量。本发明能够通过对运动目标进行矢量估计,实现精确跟踪。
-
公开(公告)号:CN115540854A
公开(公告)日:2022-12-30
申请号:CN202211526026.0
申请日:2022-12-01
Applicant: 成都信息工程大学 , 国网四川省电力公司电力科学研究院
Abstract: 本发明公开了一种基于UWB辅助的主动定位方法、设备和介质,涉及定位技术领域,通过环境图像数据的点特征和线特征、拍摄设备的角速度和加速度,构建双目视觉和惯性里程计模型进行初次定位,引入回环检测与重定位算法,对目标环境图像进行回环修正与重定位,引入优化的超宽带定位算法,对目标环境图像中的待测标签与基站间的距离进行优化定位,结合对目标环境图像进行回环修正与重定位数据和优化定位数据,基于双目视觉和惯性里程计模型构建视觉/惯性/超宽带组合模型,通过视觉/惯性/超宽带组合模型对初次定位数据进行修正,获得精确定位,减小位置误差,提高估计精度,获得更为精确的载体位姿。
-
公开(公告)号:CN111258218B
公开(公告)日:2022-08-12
申请号:CN202010050982.0
申请日:2020-01-17
Applicant: 成都信息工程大学
IPC: G05B13/04
Abstract: 本发明公开了一种基于最大相关熵准则的智能车辆路径跟踪方法,属于轨迹跟踪领域,其包括构建车辆动力学模型;将所述车辆动力学模型转换为系统状态模型;对系统状态模型进行离散线性化处理,构建形成预测时域的输出模型;基于最大相关熵准则和半方方法,构建求解控制增量Δuk的路径跟踪模型;求解路径跟踪模型得到基于车辆质心速度v和前轮转向角σf的控制增量。本方案采用最大相关熵准则的度量来建立路径跟踪模型,该模型能够有效的抑制或消除来自噪声或局外点的影响,来实现车辆的稳定路径跟踪。
-
公开(公告)号:CN111815667B
公开(公告)日:2022-06-17
申请号:CN202010580724.3
申请日:2020-06-23
Applicant: 成都信息工程大学
Abstract: 本发明公开了一种相机移动条件下高精度检测运动目标的方法,包括:在移动机器人移动期间,设置在所述移动机器人上的双目立体相机通过采集当前的场景图像,得到当前的第t‑1帧图像和t帧图像;利用改进后的背景光流补偿差分法,计算出所述第t‑1帧图像和t帧图像中的包含M个候选运动目标的第一候选运动目标集合;采用基于YOLOv3的行人车辆检测算法计算出所述第t帧图像中的包含N个候选运动目标的第二候选运动目标集合;根据所述第一候选运动目标集合和所述第二候选运动目标集合,确定初始可信运动目标集合;利用所述第一候选运动目标集合、所述第二候选运动目标集合以及所述初始可信运动目标集合,得到可信运动目标集合。
-
公开(公告)号:CN113160117A
公开(公告)日:2021-07-23
申请号:CN202110154147.6
申请日:2021-02-04
Applicant: 成都信息工程大学
Abstract: 本发明提供一种自动驾驶场景下的三维点云目标检测方法,方法包括:将接收的点云数据划分到大小相同的三维网格中,构造局部邻域图,经过图神经网络获得高维度的点的特征,拼接多个维度的点的特征,再选择每个网格中最具有代表性的点的特征映射到伪图像上构成特征图;将特征图送入骨干网络后拼接得到多层次的特征图;在多层次特征图上生成多个锚框,将锚框与人工标注的真值框通过在鸟瞰图中的交并比进行匹配,根据预设阈值划分为正、负样本,将其输入卷积神经网络计算损失,对损失函数进行优化,最终得到物体的朝向信息、位置信息和所属类别。该方法能提高中、小型物体的检测准确率。
-
公开(公告)号:CN109764886A
公开(公告)日:2019-05-17
申请号:CN201910036825.1
申请日:2019-01-15
Applicant: 成都信息工程大学
IPC: G01C21/34
Abstract: 本发明提供一种路径规划方法,该方法通过对车辆建模得到车辆的约束,同时在估价函数中加入方向代价并带入A*算法,使得所规划路径更加符合车辆的运动学模型,转折次数少,路线更平滑。将本发明方法应用于学校校园路径规划,结果表明:在规划相同路径上面,改进的A*算法规划的路径相比传统A*所规划的路径,长度降低约2.22%,累计路径转折点降低约65.28%,累计转折角度降低约49.03%,所规划出的路径能够更好满足车辆运动学模型。
-
公开(公告)号:CN109607222A
公开(公告)日:2019-04-12
申请号:CN201811450691.X
申请日:2018-11-30
Applicant: 成都信息工程大学
IPC: B65G61/00
Abstract: 本发明公开了一种泡棉码垛拆垛设备,包括支撑框架、支撑框架侧面的皮带流水线、安装在支撑框架上的码放工装与机械手、检测系统和控制系统;皮带流水线上传送泡棉;码放工装包括用于泡棉与硬质压板交叉码放的混合码放工装,以及硬质压板单独码放的硬质压板码放工装;机械手包括在皮带流水线和混合码放工装间相互转运泡棉的泡棉抓取机械手,以及在硬质压板码放工装和混合码放工装间相互转运硬质压板的硬质压板抓取机械手。本发明集泡棉码垛和拆垛功能于一身,在码垛时,机械手抓取硬质压板和泡棉,将硬质压板和泡棉交叉码放到混合码放工装上;在拆垛时,将混合码放工装上的硬质压板和泡棉混合垛依次抓取码放到硬质压板码放工装和皮带流水线上。
-
-
-
-
-
-
-
-
-