-
公开(公告)号:CN113920163B
公开(公告)日:2024-06-11
申请号:CN202111176760.4
申请日:2021-10-09
Applicant: 成都信息工程大学
Abstract: 本发明公开了一种基于传统和深度学习结合的运动目标检测方法,包括:步骤一,采用实例分割算法对双目相机采集的道路图像相邻帧进行检测,以将各图像划分为潜在运动目标区域和静止区域;步骤二,分别对各图像中的潜在运动目标区域、静止区域进行特征点提取与匹配;步骤三,基于相机自运动参数确定运动补偿,通过计算重投影误差以对运动状态判断,以基于判断结果完成对图像中运动目标进行标记。本发明公开一种基于传统和深度学习结合的运动目标检测方法,能有效提高算法实时性,同时通过提高自运动参数估计的精度提升检测精度。
-
-
公开(公告)号:CN109764886B
公开(公告)日:2022-10-14
申请号:CN201910036825.1
申请日:2019-01-15
Applicant: 成都信息工程大学
IPC: G01C21/34
Abstract: 本发明提供一种路径规划方法,该方法通过对车辆建模得到车辆的约束,同时在估价函数中加入方向代价并带入A*算法,使得所规划路径更加符合车辆的运动学模型,转折次数少,路线更平滑。将本发明方法应用于学校校园路径规划,结果表明:在规划相同路径上面,改进的A*算法规划的路径相比传统A*所规划的路径,长度降低约2.22%,累计路径转折点降低约65.28%,累计转折角度降低约49.03%,所规划出的路径能够更好满足车辆运动学模型。
-
公开(公告)号:CN114047751A
公开(公告)日:2022-02-15
申请号:CN202111261316.2
申请日:2021-10-28
Applicant: 成都信息工程大学
IPC: G05D1/02
Abstract: 本发明公开了一种冷藏保鲜库内机器人立体巡检系统及方法,为冷藏保鲜库安装上智能传感器感知库内环境状况。以立体巡检机器人对冷库巡检,结合嗅觉传感器、味觉传感器、视觉传感器、红外摄像机、超声波测距传感器等设备及人工智能信息融合与数据分析方法,针对库内货物巡检的需要,采用巡检机器人在不同方位与高度进行多维空间内进行监测,集农产品外观颜色、状态、气味、距离等多信息融合技术,综合反映冷库内农产品状态,形成冷库智能巡检机器人系列新产品,实现设备集控条件下冷库内的农产品果蔬巡检。通过本发明可提升冷藏保鲜库内巡检管理效能,降低农产品损坏耗,节约成本,促进实现农产品全流程的冷链规范化、系统化、智能化。
-
公开(公告)号:CN112115889A
公开(公告)日:2020-12-22
申请号:CN202011007965.5
申请日:2020-09-23
Applicant: 成都信息工程大学
Abstract: 本发明公开了一种基于视觉的智能车运动目标检测方法,包括:步骤一,基于立体匹配算法对相机采集到的道路图像生成对应的原视差图像,以构建相应的U‑V视差图像;步骤二,基于U‑V视差图像得到与车辆可行驶区域相关的预处理图像;步骤三,基于预处理图像生成与道路上潜在运动相关的感兴趣区,以作为潜在的障碍物目标;步骤四,结合光流和相机自运动属性对障碍物的运动属性进行判断。本发明提供一种基于视觉的智能车运动目标检测方法,通过融合光流和立体视觉计算目标运动的可能性,结合可行使区域检测结果,能有效降低车辆行驶前方中运动目标的误检率。
-
公开(公告)号:CN111815667A
公开(公告)日:2020-10-23
申请号:CN202010580724.3
申请日:2020-06-23
Applicant: 成都信息工程大学
Abstract: 本发明公开了一种相机移动条件下高精度检测运动目标的方法,包括:在移动机器人移动期间,设置在所述移动机器人上的双目立体相机通过采集当前的场景图像,得到当前的第t-1帧图像和t帧图像;利用改进后的背景光流补偿差分法,计算出所述第t-1帧图像和t帧图像中的包含M个候选运动目标的第一候选运动目标集合;采用基于YOLOv3的行人车辆检测算法计算出所述第t帧图像中的包含N个候选运动目标的第二候选运动目标集合;根据所述第一候选运动目标集合和所述第二候选运动目标集合,确定初始可信运动目标集合;利用所述第一候选运动目标集合、所述第二候选运动目标集合以及所述初始可信运动目标集合,得到可信运动目标集合。
-
公开(公告)号:CN113920411B
公开(公告)日:2024-06-14
申请号:CN202111177879.3
申请日:2021-10-09
Applicant: 成都信息工程大学
IPC: G06V10/80 , G06V30/148 , G06N3/0464 , G06V10/82
Abstract: 本发明公开了一种基于改进SOLOv2的校园场景图像分割方法,包括:步骤1:对待检测图像进行主干网络特征提取以得到对应的多层特征信息;步骤2:将多层特征信息送入到改进后的特征金子塔中进行细化并融合;步骤3:将融合后的信息送入到Head头部进行分析,通过两个并行的子通道,进行类别信息分析和mask实例分割;步骤4:通过矩阵非极大值抑制保留最高置信度的掩码信息以及类别信息,步骤5:将mask特征图映射回原图像上,输出带有特征mask掩码的图像。本发明提供一种基于改进SOLOv2的校园场景图像分割方法,能有效提升了对密集人群情况下的分割精度和召回率,且在面对目标遮挡和物体残缺的情况下,本发明算法的性能明显优先于其他算法。
-
公开(公告)号:CN117351560A
公开(公告)日:2024-01-05
申请号:CN202311190767.0
申请日:2023-09-14
Applicant: 成都信息工程大学
IPC: G06V40/20 , G06V10/44 , G06V10/764 , G06V10/25 , G06N20/00
Abstract: 本发明公开一种基于点云的引体向上智能判别方法、系统、设备及介质,涉及激光雷达技术领域。所述方法包括:采集引体向上区域的点云数据,并利用直通滤波参数提取点云数据中的感兴趣区域;对单杠点云进行剔除,保留人体点云;利用法向量对人体点云进行收缩操作,得到收缩后的点云数据;将收缩后的点云数据投射到图像平面,利用二值图像骨架提取方法对人体图像进行细化处理,并反投射回点云的三维空间,得到初始点云骨架;利用拉普拉斯收缩法,提取初始点云骨架的人体骨架点,并根据人体几何关系对人体骨架点进行分类;基于人体骨架点和单杠水平高度,判别目标人体的引体向上状态是否完成,计数并输出。本发明能够提高对人体引体向上的判别准确性。
-
公开(公告)号:CN113050074B
公开(公告)日:2023-08-25
申请号:CN202110280532.5
申请日:2021-03-16
Applicant: 成都信息工程大学
Abstract: 本发明公开了一种无人驾驶环境感知中相机与激光雷达标定系统及标定方法,基于一种定制标定板的传感器系统,分别对相机和激光雷达所采集的数据进行处理,得到两传感器各自坐标下标定板上镂空圆圆心的三维坐标,再基于改进的ICP(迭代最近点)算法对两组点集进行配准,解算相机与激光雷达之间的相对位姿关系,得到标定结果。本发明提供一种无人驾驶环境感知中相机与激光雷达标定系统及算法,其通过改进的算法使得软件系统或者算法具有较强的鲁棒性,提升了标定精度,为相机与激光雷达数据融合做准备。
-
-
-
-
-
-
-
-