-
公开(公告)号:CN110014426A
公开(公告)日:2019-07-16
申请号:CN201910218554.1
申请日:2019-03-21
Applicant: 同济大学
IPC: B25J9/16
Abstract: 本发明涉及一种利用低精度深度相机高精度抓取形状对称工件的方法,包括以下步骤:1)在抓取坐标系O-XYZ中对生产线抓取区运送工件料盘进行位置测定;2)对机械臂抓取系统进行手眼标定,得到相机坐标系与抓取坐标系之间的齐次坐标转换矩阵T1;3)生成3D工件模型点云并标记抓取位置;4)构建基于深度学习的工件检测网络模型并进行训练;5)根据训练后的工件检测网络模型进行2D图像目标检测;6)集成图像目标检测结果和料盘位置信息,从3D抓取区观测点云中分割得到工件观测点云;7)根据分割得到的工件观测点云估计抓取位姿。与现有技术相比,本发明能够利用低精度深度相机进行视觉引导达到高精度深度相机视觉引导的抓取精度。
-
公开(公告)号:CN104751451B
公开(公告)日:2017-07-28
申请号:CN201510098230.0
申请日:2015-03-05
Applicant: 同济大学
Abstract: 本发明涉及一种基于无人机低空高分辨率影像的密集点云提取方法,包括以下步骤:将N‑1张配对影像分别与基准影像进行配对,组成立体像对;以一个立体像对为单位,遍历基准图中的所有像素点,采用不等间隔深度采样算法,搜索相应配对影像中的同名核线空间;采用Daisy算法分别计算同名核线空间中每个点于基准图中对应像素点的Daisy描述量,获取同名点集;提取每个立体像对对应的密集三维点云;遍历配对图像,提取出N‑1套三维点云集;利用强制连续性检核算法获得最终的密集三维点云。与现有技术相比,本发明搜索速度快,具有更强的可靠性及执行效率,非常适用于密集点云之间的相关性量测,能有效提取基于无人机低空致密三维点云。
-
公开(公告)号:CN104751451A
公开(公告)日:2015-07-01
申请号:CN201510098230.0
申请日:2015-03-05
Applicant: 同济大学
Abstract: 本发明涉及一种基于无人机低空高分辨率影像的密集点云提取方法,包括以下步骤:将N-1张配对影像分别与基准影像进行配对,组成立体像对;以一个立体像对为单位,遍历基准图中的所有像素点,采用不等间隔深度采样算法,搜索相应配对影像中的同名核线空间;采用Daisy算法分别计算同名核线空间中每个点于基准图中对应像素点的Daisy描述量,获取同名点集;提取每个立体像对应的密集三维点云;遍历配对图像,提取出N-1套三维点云集;利用强制连续性检核算法获得最终的密集三维点云。与现有技术相比,本发明搜索速度快,具有更强的可靠性及执行效率,非常适用于密集点云之间的相关性量测,能有效提取基于无人机低空致密三维点云。
-
-
公开(公告)号:CN101923165A
公开(公告)日:2010-12-22
申请号:CN200910053178.1
申请日:2009-06-16
Applicant: 同济大学
Abstract: 本发明涉及一种大尺寸星载SAR图像的机场自动检测方法,包括以下步骤:A.基于最大后验概率准则进行SAR图像分割;B.根据机场像素强度和面积提取兴趣目标;C.提取兴趣目标的尺度和旋转不变参数;D.根据目标的尺度和旋转不变参数,训练支持向量机分类器,并对兴趣目标进行分类,得到初步检测结果;E.对初步检测结果进行平行跑道检测,保留具有平行跑道的目标作为最终检测结果。与现有技术相比,本发明识别速度快、识别质量好以及识别正确率高。
-
公开(公告)号:CN118262063A
公开(公告)日:2024-06-28
申请号:CN202410294791.7
申请日:2024-03-15
Applicant: 同济大学
IPC: G06T17/10 , G01C15/00 , G01S17/88 , G01S7/48 , G01S7/481 , G01B11/24 , G06T7/10 , G06T7/13 , G06T3/06
Abstract: 本发明涉及一种基于深度学习的交互式建筑物单体化方法和系统,方法包括:采集测区内的建筑物点云数据,并投影为测区三视图;将测区平面图输入分割网络中,提取每幢建筑物的主体部分和轮廓线信息,从而抽取每幢建筑物的点云数据,对每幢建筑物的点云数据投影为单体三视图,将建筑物单体立面图输入分割网络中,抽取建筑物各楼层的点云数据;对各建筑物的建筑物轮廓线和各楼层的点云数据,采用直线检测技术,提取建筑物的直线结构,获取建筑物单体化的矢量结果;采用交互式方法,对建筑物单体化的矢量结果进行检查与纠正。与现有技术相比,本发明实现了半自动化的建筑物单体化作业,在保证精度的同时,大大提升了测绘作图的工作效率。
-
公开(公告)号:CN107180215B
公开(公告)日:2020-01-31
申请号:CN201710397595.2
申请日:2017-05-31
Applicant: 同济大学
Abstract: 本发明提出了一种基于库位和二维码识别的即时定位与建图(SLAM)方法,基于低成本的前视单目相机以及由鱼眼相机组成的环视系统,对环境中的库位、库位编号以及预先布设的二维码进行鲁棒识别;利用低成本的惯性导航设备对车辆航向以及速度进行观测;利用SLAM算法实现对环境中的库位以及二维码标记的位置的优化估计,实现车库平面分布图自动构建,并利用建图结果实现无人车的实时高精度分米级定位。
-
公开(公告)号:CN109190651A
公开(公告)日:2019-01-11
申请号:CN201810738401.5
申请日:2018-07-06
Applicant: 同济大学
IPC: G06K9/62
Abstract: 本发明涉及一种基于多通道卷积神经网络的光学图像与雷达图像匹配方法,包括以下步骤:1)采用一个深度卷积神经网络对光学图像进行特征提取;2)采用另一个深度卷积神经网络对雷达图像进行特征提取;3)对雷达图像和光学图像的特征进行级联形成联合特征;4)基于联合特征构建匹配网络,输出匹配结果。与现有技术相比,本发明具有稳定提取图像特征、级联特征定义匹配空间、匹配结果稳定等优点。
-
公开(公告)号:CN109190625A
公开(公告)日:2019-01-11
申请号:CN201810739072.6
申请日:2018-07-06
Applicant: 同济大学
Abstract: 本发明涉及一种大角度透视变形的集装箱箱号识别方法,包括以下步骤:1)对集装箱图像进行透视变换预处理;2)构建深度卷积神经网络的字符定位与识别;3)基于级联决策树进行箱号识别。与现有技术相比,本发明具有能高精度识别存在明显透视变形的集装箱号码的优点。
-
公开(公告)号:CN107480701A
公开(公告)日:2017-12-15
申请号:CN201710590173.7
申请日:2017-07-19
Applicant: 同济大学
Abstract: 本发明涉及一种基于多通道卷积神经网络的光学图像与雷达图像匹配方法,包括以下步骤:1)采用一个深度卷积神经网络对光学图像进行特征提取,获取光学图像的32×32×32维图像特征数据;2)采用另一个深度卷积神经网络对SAR图像进行特征提取,获取SAR图像的32×32×32维图像特征数据;3)对SAR图像和光学图像提取出的图像特征数据进行级联形成联合特征;4)根据联合特征构建匹配网络,并进行全连接匹配分类并输出匹配结果。与现有技术相比,本发明具有特征级联、匹配稳定等优点。
-
-
-
-
-
-
-
-
-