-
公开(公告)号:CN115284976B
公开(公告)日:2023-09-12
申请号:CN202210958391.2
申请日:2022-08-10
Applicant: 东风柳州汽车有限公司 , 桂林电子科技大学
IPC: B60N2/02 , B60N2/00 , G06V20/59 , G06V40/16 , G06V10/764 , G06V10/82 , G06F16/583
Abstract: 本发明公开了一种车辆座椅自动调节方法、装置、设备及存储介质,该方法包括:在车厢内检测到乘坐人员时,通过车载摄像头获取乘坐人员的图像;对图像中的人脸图像进行人脸识别,并根据人脸识别的结果确定预设数据库中是否存在乘坐人员的面部数据;在预设数据库中存在乘坐人员的面部数据时,从预设数据库中获取与面部数据对应的座椅数据;根据座椅数据自动调节所述乘坐人员对应的车辆座椅。本发明通过在车厢内检测到乘坐人员时,对乘坐人员图像中的人脸图像进行人脸识别,在根据人脸识别结果确定预设数据库中存在乘坐人员的面部数据时,获取与面部数据对应的座椅数据,根据座椅数据自动调节车辆座椅,在提高座椅调节准确度的同时提高了调节效率。
-
公开(公告)号:CN116229412A
公开(公告)日:2023-06-06
申请号:CN202211619673.6
申请日:2022-12-15
Applicant: 桂林电子科技大学 , 东风柳州汽车有限公司
IPC: G06V20/58 , G06V10/40 , G06V10/82 , G06N3/04 , G06V10/764 , G06N3/045 , G06N3/0464 , G06N3/084
Abstract: 本发明涉及交通标识牌识别领域,尤其涉及一种交通标识牌识别方法、装置、设备及存储介质,该方法包括:获取交通标志样本数据集;通过所述交通标志样本数据集对预设检测模型进行训练,得到目标检测模型;采集当前交通标志样本数据集,将所述当前交通标志样本数据集输入至所述目标检测模型,并获取所述目标检测模型基于所述当前路况数据输出的交通标识牌识别结果,从而通过建立改进的SSD模型,并对其进行训练,输入当前交通标志样本数据集的,得到识别结果,从而提高了对交通标识牌识别的鲁棒性和增强了对交通标识牌学习能力。
-
公开(公告)号:CN119251785A
公开(公告)日:2025-01-03
申请号:CN202411166800.0
申请日:2024-08-23
Applicant: 华中科技大学 , 东风柳州汽车有限公司 , 桂林电子科技大学
Abstract: 本申请公开了一种目标检测方法、装置、设备和存储介质,涉及自动驾驶技术领域,所述目标检测方法包括:建立权重模型,所述权重模型是通过注意力变形卷积Yolov7‑Tiny模型训练得到的,所述注意力变形卷积Yolov7‑Tiny模型是基于Yolov7‑Tiny模型得到的;获取路况信息;使用所述权重模型对所述路况信息进行目标检测,得到检测结果。本申请通过在Yolov7‑Tiny模型的基础上,融合注意力机制和可变形卷积进行改进和训练,建立了更高效且准确的权重模型,然后采集路况信息,最后使用权重模型对路况信息进行目标检测,从而实现了更高效且准确的目标检测。
-
公开(公告)号:CN115284976A
公开(公告)日:2022-11-04
申请号:CN202210958391.2
申请日:2022-08-10
Applicant: 东风柳州汽车有限公司 , 桂林电子科技大学
IPC: B60N2/02 , B60N2/00 , G06V20/59 , G06V40/16 , G06V10/764 , G06V10/82 , G06F16/583
Abstract: 本发明公开了一种车辆座椅自动调节方法、装置、设备及存储介质,该方法包括:在车厢内检测到乘坐人员时,通过车载摄像头获取乘坐人员的图像;对图像中的人脸图像进行人脸识别,并根据人脸识别的结果确定预设数据库中是否存在乘坐人员的面部数据;在预设数据库中存在乘坐人员的面部数据时,从预设数据库中获取与面部数据对应的座椅数据;根据座椅数据自动调节所述乘坐人员对应的车辆座椅。本发明通过在车厢内检测到乘坐人员时,对乘坐人员图像中的人脸图像进行人脸识别,在根据人脸识别结果确定预设数据库中存在乘坐人员的面部数据时,获取与面部数据对应的座椅数据,根据座椅数据自动调节车辆座椅,在提高座椅调节准确度的同时提高了调节效率。
-
公开(公告)号:CN117423084A
公开(公告)日:2024-01-19
申请号:CN202311449349.9
申请日:2023-11-02
Applicant: 桂林电子科技大学 , 南宁桂电电子科技研究院有限公司
IPC: G06V20/56 , G06V10/25 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/0895
Abstract: 本发明提供一种基于自监督的多源传感器融合的多目标跟踪方法,涉及自动驾驶领域:主要组成部分由融合阶段和跟踪阶段,融合阶段包括生成获取不同传感器数据,构建传感器融合框架,构建跟踪模型,设计联合损失函数以及训练模型,在跟踪阶段,主要将测试2D视频序列和3D点云数据输入到训练后的模型中,通过自监督学习得到待测时刻的搜索响应,响应中最大值的位置表示跟踪目标所在位置,并结合所对应的尺度得到最终预测的跟踪框,从而完成该时刻目标的跟踪。本发明不仅能让模型进行自监督训练,还能让模型学到不同数据增强下搜索响应的一致性,从而学到更加鲁棒的自监督表征并显著提高跟踪性能。
-
公开(公告)号:CN117727012A
公开(公告)日:2024-03-19
申请号:CN202311812786.2
申请日:2023-12-27
Applicant: 桂林电子科技大学 , 南宁桂电电子科技研究院有限公司
IPC: G06V20/58 , G06V10/25 , G06V10/764 , G06V10/766 , G06V10/82 , G06V10/40 , G06V10/80 , G06N3/045 , G06N3/0464 , G06N3/084
Abstract: 本发明涉及智能驾驶目标识别领域,尤其涉及一种车辆行人识别方法、装置、设备及存储介质,该方法包括:获取车辆与行人样本数据集;通过所述车辆与行人样本数据集对预设检测模型进行训练,得到目标检测模型;获取车辆与行人样本图片,将所述当前车辆与行人样本图片输入至所述目标检测模型,并获取所述目标检测模型基于所述当前路况数据输出的车辆、行人识别结果,从而建立GBD‑YOLO目标检测模型,并对其进行训练,输入当前车辆、行人样本数据集,得到识别结果,从而提高对车辆、行人识别的准确性。
-
-
-
-
-