-
公开(公告)号:CN117037155A
公开(公告)日:2023-11-10
申请号:CN202310881417.2
申请日:2023-07-18
Applicant: 南京大学
IPC: G06V20/70 , G06V10/40 , G06V10/80 , G06V10/764 , G06V10/26
Abstract: 本发明提供了一种基于多模态融合的大规模园林场景点云语义标注方法,包括以下步骤:一、点云特征提取:使用点云特征提取网络对园林场景点云进行特征提取,获得逐点点云特征;二、图像特征提取:使用图像分割网络对园林场景多视图进行多层特征提取与特征聚合,获得多视图逐像素图像特征;三、多模态特征融合:通过反投影对多视图特征与点云进行匹配,将多视图特征与点云特征融合,获得增强的点云特征;四、点云特征分类:对增强后的点云特征进行全局上下文依赖分析,使用特征分类网络预测驻点标签作为逐点标注。该方法利用园林场景图像特征增强点云特征,并通过全局上下文依赖分析增强特征判别性,能够有效地适应大规模园林场景的特殊性。
-
公开(公告)号:CN117036693A
公开(公告)日:2023-11-10
申请号:CN202310899538.X
申请日:2023-07-21
Applicant: 南京大学
Abstract: 本发明公开了一种实例关系驱动的大规模园林场景点云分割方法,包括:首先使用降采样和聚类的方法获取园林场景点云的实例对象标注数据,然后使用标注数据训练实例分割网络,采用经过训练的实例分割网络分割出点云中的实例对象,接着使用园林点云和实例对象输入到实例关系图生成器中生成园林场景的实例关系图,再通过图卷积生成每个园林场景的实例关系图特征,最后将园林场景的实例关系图特征和点云连接输入到训练好的点云分割网络获得大规模园林场景的逐点分割数据。本发明可应对大规模园林场景点云,能准确获得园林点云场景中的上下文信息,为园林场景的点云分割提供充足的先验知识,从而提高园林点云的分割效率和准确率。
-
公开(公告)号:CN114782603A
公开(公告)日:2022-07-22
申请号:CN202210481019.7
申请日:2022-05-05
Applicant: 南京大学
Abstract: 本发明公开了一种基于隐式表示的三维场景语义补全方法,包括如下步骤:步骤1,隐式编解码网络搭建:搭建用于生成隐式表示的隐表示编码网络以及用于隐式表示解码的隐表示解码网络;步骤2,隐表示语义标签生成;步骤3,隐表示编解码网络训练:根据随机梯度下降算法,利用隐表示语义标签训练隐表示编解码网络;步骤4,体素语义补全结果生成。本发明通过解耦粒度与网络结构之间的直接联系,达到在不调整网络并重训练的前提下满足变粒度的需求的效果。本发明可以实现任意粒度的场景补全,可以满足不同的应用场合对于场景模型几何变粒度的需求。
-
公开(公告)号:CN114694081A
公开(公告)日:2022-07-01
申请号:CN202210423708.2
申请日:2022-04-21
Applicant: 南京大学
Abstract: 本发明公开了一种基于多元属性合成的视频样本生成方法,包括以下步骤:多元属性模型构建:先根据预训练的视频编码器和属性分解网络从视频中分解出前景对象逐帧的多元静态属性和动态属性,再根据一致性约束和平滑性约束分别对静态属性和动态属性进行一致性和平滑性处理;最终通过向量拼接生成多元属性模型;多元属性嵌入空间生成:构建基于神经网络的自编码器,训练自编码器并生成多元属性嵌入空间;多元属性合成:从多元属性嵌入空间中采样,先利用训练的解码器生成各帧的多元属性,再运用形状合成和光照合成方法计算各帧目标对象三维几何及其纹理,最后,渲染生成视频样本。重复多元属性合成过程可得到由用户指定的多个视频样本。
-
公开(公告)号:CN117115338A
公开(公告)日:2023-11-24
申请号:CN202310886083.8
申请日:2023-07-19
Applicant: 南京大学
Abstract: 本发明提供了一种数据驱动的大规模园林场景点云对象渐进发现方法,包括以下步骤:步骤1,搭建对象检测网络,将园林点云输入至对象检测网络,生成对象的包围框,并根据包围框将对象点云裁剪出来,获得每个包围框的对象点云;步骤2,搭建前背景分割网络,将每个包围框的对象点云输入至前背景分割网络,获得前景点云;步骤3,搭建对象识别网络,将前景点云输入至对象识别网络,获得园林场景点云对象;步骤4,重复步骤2和步骤3直至所有包围框的对象点云被处理完。该方法在体素表示下进行粗定位,保留了三维信息的同时降低了大规模园林场景带来的计算开销,同时渐进式流程能够在复杂的园林场景中提取更为精确的对象点云。
-
公开(公告)号:CN117036694A
公开(公告)日:2023-11-10
申请号:CN202310907329.5
申请日:2023-07-24
Applicant: 南京大学
IPC: G06V10/26 , G06V10/44 , G06V10/74 , G06V10/80 , G06V10/82 , G06V20/00 , G06V20/70 , G06N3/0455 , G06N3/048
Abstract: 本发明提供了一种上下文驱动的大规模园林场景点云语义分割方法,包括以下步骤:1)多尺度空间上下文信息提取:提取点云逐点位置编码,并根据点云的近邻点聚合局部空间信息,最终通过特征拼接提取逐点多尺度空间上下文信息。2)全局‑局部上下文提取:使用局部Transformer编码网络提取点云的局部上下文,使用全局Transformer编码网络提取点云的全局上下文。3)全局‑局部上下文融合及Transformer解码:根据全局特征和局部特征的相关性融合点云的全局和局部的特征并使用Transformer解码器解码特征得到逐点的类别标签,完成点云语义分割。该方法能够在不多增加计算量的情况下,准确的捕捉园林点云场景中全局上下文信息,提高逐点的表征能力,从而提高点云分割的速度和精确度。
-
公开(公告)号:CN111950477A
公开(公告)日:2020-11-17
申请号:CN202010824674.9
申请日:2020-08-17
Applicant: 南京大学
Abstract: 本发明提供了一种基于视频监督的单图像三维人脸重建方法,包括以下步骤:1)构建单图像人脸重建模块:根据视频人脸片段数据集进行训练,训练得到能够从单张人脸图像中重加出基本形状,形状偏移以及反照率图的模型;2)构建姿态光照分解模块:根据视频人脸片段数据集进行训练,得到能够从单张人脸图像中分解出相机姿态和环境光照;3)整体训练框架:包括数据预处理,训练框架设计以及测试三个部分。本发明实现了端到端的基于视频监督的单图像三维人脸重建,本发明方法可以更有效地从一张人脸图像中重建出人脸的三维几何结构,反照率并恢复出相机的姿态和环境光照。
-
公开(公告)号:CN114694081B
公开(公告)日:2025-01-07
申请号:CN202210423708.2
申请日:2022-04-21
Applicant: 南京大学
IPC: G06V20/40 , G06F17/16 , G06N3/0464 , G06N3/08 , G06V10/774 , G06V10/82
Abstract: 本发明公开了一种基于多元属性合成的视频样本生成方法,包括以下步骤:多元属性模型构建:先根据预训练的视频编码器和属性分解网络从视频中分解出前景对象逐帧的多元静态属性和动态属性,再根据一致性约束和平滑性约束分别对静态属性和动态属性进行一致性和平滑性处理;最终通过向量拼接生成多元属性模型;多元属性嵌入空间生成:构建基于神经网络的自编码器,训练自编码器并生成多元属性嵌入空间;多元属性合成:从多元属性嵌入空间中采样,先利用训练的解码器生成各帧的多元属性,再运用形状合成和光照合成方法计算各帧目标对象三维几何及其纹理,最后,渲染生成视频样本。重复多元属性合成过程可得到由用户指定的多个视频样本。
-
公开(公告)号:CN119169622A
公开(公告)日:2024-12-20
申请号:CN202411206606.0
申请日:2024-08-30
Applicant: 南京大学
IPC: G06V20/70 , G06V20/64 , G06V20/00 , G06V10/26 , G06V10/762 , G06V10/764 , G06V10/774
Abstract: 本发明公开了一种大规模园林点云的无监督语义分割方法,包括以下步骤:1.超点构造:使用超体素聚类和区域增长方法构建园林场景的超点表示;2.点云增强:对园林场景点云做数据增强,增强园林点云的表示;3.伪标签生成:通过特征提取园林点云的特征,指导超点生长成规模更大的新超点,利用园林超点特征自适应的聚类成语义基元,从而赋予点伪标签,并利用基元中心构成特征分类器;4.网络训练:利用特征分类器对园林点云特征提取网络提取的点特征分类,获取到逐点的逻辑值,通过伪标签和逻辑值损失训练网络;5.交互分割:面对大规模园林点云,根据用户设定的参数,模型提取园林点云特征后聚类出指定数量的类别的簇并显示簇类别的中心点,用户标注中心点后,根据标注赋予簇中所有园林点云逐点的类别标签。
-
公开(公告)号:CN111950477B
公开(公告)日:2024-02-02
申请号:CN202010824674.9
申请日:2020-08-17
Applicant: 南京大学
IPC: G06T17/00 , G06V40/16 , G06V20/40 , G06V10/774 , G06V10/44 , G06T3/02 , G06T7/11 , G06T7/20 , G06T15/50
Abstract: 本发明提供了一种基于视频监督的单图像三维人脸重建方法,包括以下步骤:1)构建单图像人脸重建模块:根据视频人脸片段数据集进行训练,训练得到能够从单张人脸图像中重加出基本形状,形状偏移以及反照率图的模型;2)构建姿态光照分解模块:根据视频人脸片段数据集进行训练,得到能够从单张人脸图像中分解出相机姿态和环境光照;3)整体训练框架:包括数据预处理,训练框架设计以及测试三个部分。本发明实现了端到端的基于视频监督的单图像三维人脸重建,本发明方法可以更有效地从一张人脸图像中重建出人脸的三维几何结构,反照率并恢复(56)对比文件何华赟.数据驱动的三维人体头部重建《.中国优秀硕士学位论文全文数据库 信息科技辑》.2018,(第12期),I138-1745.Elad Richardson等.Learning DetailedFace Reconstruction From a Single Image.《Proceedings of the IEEE Conference onComputer Vision and Pattern Recognition(CVPR)》.2017,1259-1268.Yudong Guo等.CNN-Based Real-TimeDense Face Reconstruction with Inverse-Rendered Photo-Realistic Face Images.《IEEE Transactions on Pattern Analysisand Machine Intelligence》.2018,第41卷(第6期),1294-1307.
-
-
-
-
-
-
-
-
-