-
公开(公告)号:CN115409966A
公开(公告)日:2022-11-29
申请号:CN202210988496.2
申请日:2022-08-17
Applicant: 东南大学
IPC: G06T17/10 , G06T7/73 , G06V30/422 , G06V30/19 , G06V30/18
Abstract: 本发明公开了一种从二维矢量图纸自动重建桁架结构三维点云的方法,只需要二维矢量图纸,即可使用一系列图像识别和信息融合算法重建真实世界的三维点云。为解决无法采用cad进行桁架结构三维重建、手动建模过程繁琐等问题,提出基于深度学习和连通域、obb包围盒等算法对图纸进行掩膜提取、自动分割和视角校正,并区分“主平面”与“辅平面”。通过对“主平面”、“辅平面”的尺寸结构进行特征匹配,得到各个平面的空间位置;在各个平面内,采用一种基于聚类与矢量拼接的直线检测算法识别拓扑,最终重建出桁架结构的三维点云。有益效果在于:提出从二维矢量图纸智能识别和融合语义信息,无需借助cad软件或手动建模,可直接实现三维点云的重建。
-
公开(公告)号:CN113358061A
公开(公告)日:2021-09-07
申请号:CN202110606699.6
申请日:2021-05-31
Applicant: 东南大学
Abstract: 本发明公开了一种端到端标定深度学习网络的单幅条纹三维点云测量方法,只需要一幅棋盘格条纹图与单幅物体条纹图,即可使用深度学习技术实现单幅条纹图的三维点云测量,为解决条纹投影测量系统标定过程繁琐,且使用深度学习技术时不同标定参数下数据集不通用的问题,提出使用棋盘格条纹图和单幅条纹图来联合训练深度学习网络,棋盘格条纹图可对网络进行世界坐标标定,经过标定的深度学习网络模型,将单幅条纹图里的物体映射到棋盘格对应的世界坐标系中,使网络直接输出真实世界坐标的三维点云。有益效果在于:提出用棋盘格条纹图联合物体条纹图直接训练和标定深度学习网络,无需额外标定,可直接实现端到端的三维点云测量。
-
公开(公告)号:CN110942416A
公开(公告)日:2020-03-31
申请号:CN201911088417.7
申请日:2019-11-08
Applicant: 东南大学
IPC: G06T1/20
Abstract: 本发明公开了一种GPU通用的形态学加速方法。该方法针对形态学计算中腐蚀和膨胀操作使用结构元素的不同,相应提出了对应的加速策略。首先,将二维结构元素看作二维矩阵并求出它的秩,若秩为1,将其分解成两个一维的结构元素,并依次使用分解得到的两个一维结构元素对图像进行腐蚀或膨胀操作得到结果。若秩不为1,创建多个宽度与二维结构元素宽度相等、高度与待处理图像高度相等的窗口,每个窗口覆盖区域展开成一列,同时将二维结构元素也展开成一列,利用GPU并行计算每个像素点涉及区域的最大值或最小值,得到腐蚀或膨胀后的结果。本发明简单易实现,适用于所有基于GPU的平台,具有通用性,且大大提高了形态学的计算速度,因此具有较好的应用潜力。
-
公开(公告)号:CN110276274A
公开(公告)日:2019-09-24
申请号:CN201910468170.5
申请日:2019-05-31
Applicant: 东南大学
Abstract: 本发明公开了一种多任务的深度特征空间姿态人脸识别方法,首先对姿态人脸图片进行角度测定,利用残差网络来实现图片深度空间特征的提取;然后,添加残余等变换映射模块,用来实现侧脸深度特征到正脸深度特征的变换,构成了网络的主任务;接着,在原来残余等变换映射模块的基础上再添加一个模块,用来实现原始侧脸深度特征的重构,以实现反馈,这是网络的副任务;最后,采用余弦相似度来衡量待比较人脸与数据库中所有人的深度特征表示之间的相似度,以此进行人脸认证识别。本发明能够根据侧脸深度空间特征得到正脸深度空间特征的鲁棒表示,使得对于侧脸的识别率得到了大幅提高,在姿态人脸检测与识别中具有非常好的应用前景。
-
公开(公告)号:CN103267496A
公开(公告)日:2013-08-28
申请号:CN201310189119.3
申请日:2013-05-20
Applicant: 东南大学
IPC: G01B11/25
Abstract: 本发明公开了一种基于小波变换的改进窗口傅里叶三维测量法,其主要目的在于求解出精确的条纹图像的相位分布,并由相位分布得到物体的三维形貌信息。其实现步骤为:将一幅黑白正弦调制条纹图像投影到被测物体上并用CCD进行采集;对采集到的变形条纹图像逐行进行小波变换,提取小波变换脊,然后计算并去除求取脊过程中相位二阶导所带来的误差,最后得到精确的窗口大小矩阵。将精确窗口矩阵代入窗口傅里叶变换,经过滤波等步骤求得变形条纹图的相对相位信息。建立条纹图质量图,然后采用洪水算法相位展开,得到条纹图像的绝对相位分布。根据相位高度转换公式由绝对相位分布获取被测物体的三维信息。
-
公开(公告)号:CN119941979A
公开(公告)日:2025-05-06
申请号:CN202411818031.8
申请日:2024-12-11
Applicant: 国网江苏省电力有限公司建设分公司 , 东南大学
Abstract: 本发明公开了一种基于设计图纸自动拼接输电线路铁塔三维模型的方法,通过图纸数据的识别提取和点云数据的复制平移,自动根据设计图纸的位置参数进行输电线路铁塔三维模型拼接。本发明方法首先通过图像处理和文本识别对图纸进行扫描分析,确定每个电塔组件局部模块在整体三维模型中的位置和相对关系,然后基于铁塔各组件点云文件,利用位置参数在三维坐标轴下进行位移操作,对各个组件进行精确定位和调整,自动拼接后得到完整的输电线路铁塔的三维模型。本发明方法减少了人工组装和重复劳动带来的成本及时间浪费,为研发电力系统的数字化产品提供了基础和支撑,对全面推进电力系统的数字化转型具有重要意义。
-
公开(公告)号:CN116310355A
公开(公告)日:2023-06-23
申请号:CN202211093180.3
申请日:2022-09-08
Applicant: 东南大学
Abstract: 本发明公开了一种复杂结构件的激光点云去噪和缺陷检测方法,以标准理想点云为先验信息,包括以下步骤:1、获取目标物采集点云和标准点云;2、基于主成分分析(PCA)和最近点迭代(ICP)算法将采集点云配准到标准点云;3、将标准点云进行多向偏移并合成膨胀标准点云;4、基于膨胀标准点云对采集点云进行去噪;5、利用倒角距离和二次确认算法提取缺陷;6、基于密度聚类(DBSCAN)算法分类缺陷。本发明基于先验信息实现了对激光LIDAR采集到的复杂结构目标物激光点云数据精细化去噪以及缺陷检测,去噪和检测效果良好。本发明应用广泛,在点云去噪、设备检修、建筑验收等场合均有重大意义。
-
公开(公告)号:CN108680119B
公开(公告)日:2020-06-12
申请号:CN201810352746.7
申请日:2018-04-19
Applicant: 东南大学
IPC: G01B11/25
Abstract: 本发明公开了一种分区域的单幅快速相位展开方法。首先利用二维正弦辅助的经验模态分解法(BSEMD)对条纹图进行自适应多尺度分解,得到的高频结果分量用于检测条纹中物体边缘,得到的中间条纹载频分量通过希尔伯特变换获取包裹相位和瞬时频率,得到的低频分量用于条纹图阴影区域识别;然后将边缘和阴影区域融合并进行形态学操作形成低质量区域;接着利用洪水蔓延的方式展开高质量区域,用瞬时频率建立质量图指导扩展的低质量区域相位展开;最后对各区域相位合并形成完整的连续相位。本发明通过在划分区域应用不同的相位展开策略实现包裹相位的快速展开,整个方法高效且精度高,在单幅条纹三维快速测量系统中具有较大的应用前景。
-
公开(公告)号:CN107610065B
公开(公告)日:2020-06-02
申请号:CN201710858065.3
申请日:2017-09-21
Applicant: 东南大学
Abstract: 本发明公开了一种二维正弦辅助的经验模态图像分解方法,首先对图像进行快速经验模态分解,然后通过对该层尺度的初始分解结果进行幅频分析,自动设计了与该分量尺度相似的二维正弦分布,再通过这些正弦分布的辅助,使该尺度极值分布均匀,从而能够完整、彻底地从图像中分离出来。反复迭代操作,则可将图像分解成一系列尺度分明、物理意义明确的各分量图像。采用正弦辅助的方法可成功解决模式混叠问题,此外,该方法仅需要一对互逆的正弦分布参与操作,因此可保证较高的图像分解效率,使得本方法具有很好的应用潜力。本发明的方法自适应性强,实现简单,分解速度快,可广泛应用于图像处理、模式识别、人工智能等领域中。
-
公开(公告)号:CN107741204B
公开(公告)日:2020-03-31
申请号:CN201710858121.3
申请日:2017-09-21
Applicant: 东南大学
Abstract: 本发明公开了一种用于动态三维测量的条纹增强方法,该方法采用二维正弦辅助的经验模态分解法对条纹图像进行多尺度分解,随着分解过程的进行,对各层尺度能量的变化进行分析以确定噪声分量,然后对各层尺度分解图进行幅频分析,以分隔条纹分量和背景分量。条纹分量一旦确定,BSEMD则停止分解。再对所确定的条纹分量进行后续处理,通过形态学操作去除残留的噪声,最终得到增强的条纹图像。本发明方法仅用一对互逆的二维正弦分布参与操作即可得到一系列尺度分明的分解图,通过灵活有效的智能方法自动对分解结果进行分类,并通过简单的后处理操作使提取的条纹分量得以进一步增强,方法整体上可保持较高的效率和精度,且自动化程度较高,具有很好的应用潜力。
-
-
-
-
-
-
-
-
-