-
公开(公告)号:CN108489583B
公开(公告)日:2023-07-18
申请号:CN201810184179.9
申请日:2018-03-06
Applicant: 华南理工大学
Abstract: 一种新型粉体/胶体配方称量设备,包括机箱、主体工作线、自动上杯组件、胶杯收集区、控制器、显示器,在机箱的入口处安装自动上杯组件,在机箱的出口处安装胶杯收集区,主体工作线安装于机箱内,显示器安装于机箱的前侧,控制器安装于机箱并和显示器电连接;主体工作线包括工作线基部、做粉工位、取粉工位、做胶工位,做粉工位、取粉工位与做胶工位安装于工作线基部上,且做粉工位和取粉工位配套使用,工位上均设有工位控制器,自动上杯组件处设有上杯控制器,胶杯收集区设有移杯控制器,工位控制器、上杯控制器、移杯控制器和控制器电连接。本发明具有注粉过量后能取粉的优点,避免注粉过量失误而重新开始任务的缺陷。本发明属于精密仪器领域。
-
公开(公告)号:CN111582083B
公开(公告)日:2023-05-23
申请号:CN202010336136.5
申请日:2020-04-25
Applicant: 华南理工大学
IPC: G06V20/58 , G06V20/70 , G06V10/764 , G06V10/82 , G06V10/26 , G06N3/0464 , G06N3/082 , G06N3/0455 , G06V10/34
Abstract: 本发明涉及图像处理技术领域,提供一种基于消失点估计与语义分割的车道线检测方法。本方法车道线检测方法包括:首先通过卷积神经网络检测消失点,其次通过估计的消失点坐标进行自参数学习的逆透视变换,将图像投影到易于网络学习的俯视视角中。在俯视图中,通过语义分割网络进行二值分割,随后进行后处理实例化,得到车道线拟合方程并在原图中显示。本方法利用卷积神经网络强大的特征提取能力,解决了不同道路场景下的车道线检测问题,并且节省了车道线检测算法实例化操作的时间。本发明技术方案能有效检测模糊车道线边缘并抑制噪声,对消失点和直线的检测耗时少且准确性高,并且提高车道线识别实时性。
-
公开(公告)号:CN111583337A
公开(公告)日:2020-08-25
申请号:CN202010336142.0
申请日:2020-04-25
Applicant: 华南理工大学
Abstract: 本发明涉及一种基于多传感器融合的全方位障碍物检测方法,该方法首先通过激光雷达和摄像头收集不同场景下的图像与激光点云数据;并将激光点云数据进行鸟瞰投射,经过二维网格化分割之后进行特征提取并得到鸟瞰图中的目标候选框。再利用一阶段目标检测网络模型,得到图像区域候选框;然后利用空间配准将鸟瞰图中的目标区域候选框与图像区域候选框进行融合。然后在三维空间点云分类分支设计编码器解码器结构的分割子网络对每个点云进行分类,得到在三维空间中障碍物目标的精准类别;三维候选框位置回归分支计算相应类别的预测目标与标注目标的坐标偏差及其损失值,并输出经过偏移后的预测障碍物位置信息,得到更加精确的三维空间障碍物的位置信息。
-
公开(公告)号:CN108489583A
公开(公告)日:2018-09-04
申请号:CN201810184179.9
申请日:2018-03-06
Applicant: 华南理工大学
Abstract: 一种新型粉体/胶体配方称量设备,包括机箱、主体工作线、自动上杯组件、胶杯收集区、控制器、显示器,在机箱的入口处安装自动上杯组件,在机箱的出口处安装胶杯收集区,主体工作线安装于机箱内,显示器安装于机箱的前侧,控制器安装于机箱并和显示器电连接;主体工作线包括工作线基部、做粉工位、取粉工位、做胶工位,做粉工位、取粉工位与做胶工位安装于工作线基部上,且做粉工位和取粉工位配套使用,工位上均设有工位控制器,自动上杯组件处设有上杯控制器,胶杯收集区设有移杯控制器,工位控制器、上杯控制器、移杯控制器和控制器电连接。本发明具有注粉过量后能取粉的优点,避免注粉过量失误而重新开始任务的缺陷。本发明属于精密仪器领域。
-
公开(公告)号:CN107146249A
公开(公告)日:2017-09-08
申请号:CN201710236536.7
申请日:2017-04-12
Applicant: 华南理工大学
IPC: G06T7/62
CPC classification number: G06T7/62
Abstract: 本发明提供了一种适用于任意两多边形之间的内靠接临界多边形的计算方法,首先,该方法通过判定多边形的各个角顶点(矢量边)与另一多边形各条矢量边(角顶点)的接触情况,计算产生初始的矢量线段集合;然后,利用初始矢量线段的交点分割矢量线段;最后,采用“最小旋转角”策略筛选合适的矢量线段来合成得到内靠接临界多边形(包括特殊的退化点和退化线),即为这两个多边形之间的内靠接临界多边形(集合)。该发明通过矢量线段合成方法计算形状任意的两个多边形之间的内靠接临界多边形,不仅能够降低计算内靠接临界多边形的时间复杂度,同时能够提高内靠接临界多边形计算方法的准确性及适用范围。
-
公开(公告)号:CN107067106A
公开(公告)日:2017-08-18
申请号:CN201710237156.5
申请日:2017-04-12
Applicant: 华南理工大学
CPC classification number: Y02P90/30 , G06Q10/043 , G06F17/5009 , G06Q50/04
Abstract: 本发明提供了一种适用于形状任意的两个多边形之间的外靠接临界多边形的计算方法,首先,该方法通过判定多边形的各个角顶点(矢量边)与另一多边形各条矢量边(角顶点)的接触情况,计算产生初始的矢量线段集合;然后,利用初始矢量线段的交点分割矢量线段;最后,采用“最小旋转角”策略筛选合适的矢量线段来合成得到外部临界多边形和可能存在的若干个内部临界多边形(包括特殊的退化点和退化线),即为这两个多边形之间的外靠接临界多边形(集合)。该发明通过矢量线段合成方法计算形状任意的两个多边形之间的外靠接临界多边形,不仅能够降低计算外靠接临界多边形的时间复杂度,同时能够提高临界多边形计算方法的准确性及适用范围。
-
公开(公告)号:CN111582083A
公开(公告)日:2020-08-25
申请号:CN202010336136.5
申请日:2020-04-25
Applicant: 华南理工大学
Abstract: 本发明涉及图像处理技术领域,提供一种基于消失点估计与语义分割的车道线检测方法。本方法车道线检测方法包括:首先通过卷积神经网络检测消失点,其次通过估计的消失点坐标进行自参数学习的逆透视变换,将图像投影到易于网络学习的俯视视角中。在俯视图中,通过语义分割网络进行二值分割,随后进行后处理实例化,得到车道线拟合方程并在原图中显示。本方法利用卷积神经网络强大的特征提取能力,解决了不同道路场景下的车道线检测问题,并且节省了车道线检测算法实例化操作的时间。本发明技术方案能有效检测模糊车道线边缘并抑制噪声,对消失点和直线的检测耗时少且准确性高,并且提高车道线识别实时性。
-
公开(公告)号:CN111581313A
公开(公告)日:2020-08-25
申请号:CN202010336144.X
申请日:2020-04-25
Applicant: 华南理工大学
Abstract: 本发明涉及一种基于实例分割的语义SLAM鲁棒性改进方法,首先通过实例分割网络对关键帧进行实例分割,建立先验语义信息;然后计算特征点光流场对物体进一步区分,识别出场景真正运动物体并将属于动态物体的特征点去除;最后进行语义关联,建立无动态物体干扰的语义地图。本发明与现有技术相比,采用深度学习与光流相互结合的方法建立语义地图且在彩色图的基础上增加深度图,赋予系统建立稠密三维点云语义地图的能力;另外,采用Mask-RCNN框架实时语义分割,通过光流信息估计的动态特征点与像素级别的语义信息相互结合可计算物体动态信息。本发明采用深度学习与光流相互结合使得整个系统的鲁棒性得到显著提高,能将其应用于动态场景下实时语义地图构建。
-
公开(公告)号:CN111583337B
公开(公告)日:2023-03-21
申请号:CN202010336142.0
申请日:2020-04-25
Applicant: 华南理工大学
IPC: G06T7/73 , G06T7/33 , G06T7/11 , G06V10/80 , G06V10/774 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/082
Abstract: 本发明涉及一种基于多传感器融合的全方位障碍物检测方法,该方法首先通过激光雷达和摄像头收集不同场景下的图像与激光点云数据;并将激光点云数据进行鸟瞰投射,经过二维网格化分割之后进行特征提取并得到鸟瞰图中的目标候选框。再利用一阶段目标检测网络模型,得到图像区域候选框;然后利用空间配准将鸟瞰图中的目标区域候选框与图像区域候选框进行融合。然后在三维空间点云分类分支设计编码器解码器结构的分割子网络对每个点云进行分类,得到在三维空间中障碍物目标的精准类别;三维候选框位置回归分支计算相应类别的预测目标与标注目标的坐标偏差及其损失值,并输出经过偏移后的预测障碍物位置信息,得到更加精确的三维空间障碍物的位置信息。
-
公开(公告)号:CN111583136A
公开(公告)日:2020-08-25
申请号:CN202010336146.9
申请日:2020-04-25
Applicant: 华南理工大学
Abstract: 本发明公开了一种救援场景下的自主移动平台同时定位与建图方法,本方法应用于搜救自主移动平台,可以在火灾救援现场、复杂危险事故现场等极端环境下进行定位和建图。本方法主要分为传感器信息处理、位姿估计、位姿校正三大部分。首先,对四目摄像头模组获取的全方位图像信息进行去模糊、特征提取等操作。然后,与惯性导航传感器测量信息进行融合并估计位姿,最后,进行全局位姿优化校正。本方法基于卷积神经网络设计了一种全自动、端到端的去雾方法,不需要后处理步骤,适用范围广,可同时应用于室内和自然场景的去雾中。同时,采用较稳定的基于特征点法的双目视觉SLAM方法融合IMU传感器数据进行自主移动平台的定位与建图。
-
-
-
-
-
-
-
-
-