几何建模方法、装置、电子设备及存储介质

    公开(公告)号:CN118505935B

    公开(公告)日:2024-10-22

    申请号:CN202410955627.6

    申请日:2024-07-17

    Applicant: 清华大学

    Inventor: 刘泊宁 刘烨斌

    Abstract: 本公开提出一种几何建模方法,涉及数据处理领域。该方法包括:获取输入的原始三维几何网格,提取原始三维几何网格的原始符号距离场;基于原始符号距离场,初始化二次核模型的建模参数和网络训练的损失函数;通过三维卷积神经网络和全连接层网络对原始符号距离场进行网络训练,以优化二次核模型的建模参数,直至损失函数收敛,得到最优建模参数;基于最优建模参数重建符号距离场,使用行进立方体算法对符号距离场重建三维几何网格。本公开采用三维卷积神经网络和全连接层进行网络训练,实现最优的建模参数集选择,采用网络学习三维几何能够进行高精度数据量的表征建模,可以解决相关技术中隐式几何表征精度低,细节重建精度低的问题。

    一种人脸密集特征点检测与表情参数捕捉方法及装置

    公开(公告)号:CN117975536A

    公开(公告)日:2024-05-03

    申请号:CN202410209467.0

    申请日:2024-02-26

    Applicant: 清华大学

    Inventor: 刘烨斌 王立祯

    Abstract: 本申请提出了一种人脸密集特征点检测与表情参数捕捉方法及装置,该方法包括:构建包含独立眼球、牙齿、舌头建模的三维人脸模板,在三维人脸模板中标注密集关键点;获取真实人脸数据集和三维扫描人脸数据集,对真实人脸数据集和三维扫描人脸数据集进行三维人脸模板拟合,得到第一三维人脸模板渲染数据与真实人脸数据对应的第一数据集;对新数据集中的第一三维人脸模板渲染数据的牙齿和舌头进行数据生成与增强,得到第二数据集;利用结合时序信息进行训练的方式,根据第二数据集得到人脸密集特征点检测网络。基于本申请提出的方案,能够实现实时高质量的人脸密集特征点检测和表情捕捉。

    基于多RGBD相机的实时人体全息重建方法以及装置

    公开(公告)号:CN113506335B

    公开(公告)日:2022-12-13

    申请号:CN202110610788.8

    申请日:2021-06-01

    Applicant: 清华大学

    Abstract: 本申请提出一种基于多RGBD相机的实时人体全息重建方法、装置和计算机设备。具体实现方案为:预训练基于像素对齐特征的三维重建神经网络,采集多视点场景彩色深度图像,提取多视点彩色深度图像前景,提取多视点彩色深度图像的特征图像,对重建空间进行均匀采样并计算投影符号距离函数值并进行有效采样点筛选,计算采样点的多视点图像特征,并进行多视点特征融合,使用符号距离回归网络推理符号距离函数,从采样点中提取三维模型表面,使用颜色回归网络推理模型顶点颜色,完成全息重建。本申请可以提高全息重建速度,提升网络泛化性能,还可以进一步提升全息重建的质量和精确。

    用于多视图植物三维重建的生成模型的构建方法

    公开(公告)号:CN111462301B

    公开(公告)日:2022-10-28

    申请号:CN202010147283.8

    申请日:2020-03-05

    Applicant: 清华大学

    Abstract: 本发明公开了一种用于多视图植物三维重建的生成模型的构建方法,该方法包括:利用贝叶斯概率框架构建植物生长模型,通过对支取生长模型赋予带参先验概率,构建植物骨架生长的概率表示;通过在根节点上指定初始生长因子和分叉代数限制,植物生长模型通过随机采样生成实例化的骨架;获取同种植物的图像集,植物生长模型利用矢量场方法对图像集中的每个单图像计算一个2D骨架,通过对2D骨架聚类分析,提取出图像集的形态基元,利用形态基元的模型与训练集中的骨架拟合,使用高斯‑牛顿梯度下降方法求取植物生长模型参数的最优解。该方法能够反映植物生长姿态特性的贝叶斯概率模型,可作为植物表示的一般框架,能用于多视图植物重建。

    三维重建方法、装置、电子设备及存储介质

    公开(公告)号:CN114663591A

    公开(公告)日:2022-06-24

    申请号:CN202210295272.3

    申请日:2022-03-24

    Abstract: 本公开是关于三维重建方法、装置、电子设备及存储介质,该方法包括:获取待重建人体的每个人体图像对应的人体模板和每个人体图像的法向图;对于每个人体图像,获取该人体图像对应的第一特征、该人体图像对应的第二特征、该人体图像对应的转换第三特征;基于每个人体图像对应的第一特征、每个人体图像对应的第二特征、每个人体图像对应的转换第三特征,得到待重建人体的融合特征;在与待重建人体相关的空间中采样空间点,得到空间点集合,基于空间点集合中的每个空间点对应的特征,确定空间点集合中的用于三维重建的空间点;基于每个用于三维重建的空间点,生成待重建人体的三维模型。

    高精度人体体态重建方法及系统

    公开(公告)号:CN110415336B

    公开(公告)日:2021-12-14

    申请号:CN201910630399.4

    申请日:2019-07-12

    Applicant: 清华大学

    Abstract: 本发明公开了一种高精度人体体态重建方法及系统,其中,该方法包括以下步骤:获取人体视频,并选取人体视频的关键帧;搭建深度神经网络获取关键帧的人体轮廓信息和二维关节信息;构造参数化人体模型,利用人体轮廓信息和二维关节信息对参数化人体模型进行约束,获得初始化人体姿态参数;利用二维关节信息和人体轮廓信息优化初始化人体姿态参数,并选取人体视频的全部帧,构造联合约束,再次优化初始化人体姿态参数,利用高斯牛顿公式迭代两次优化过程,直至相邻两次迭代的能量差值小于预设阈值。该方法利用少数几个角度的人体RGB信息,可以更好地重建人体模型,使得重建得到的人体模型更精确地反应真实人体身材。

    基于隐式场的十亿像素场景人群三维重建方法和装置

    公开(公告)号:CN112907736A

    公开(公告)日:2021-06-04

    申请号:CN202110265313.X

    申请日:2021-03-11

    Applicant: 清华大学

    Abstract: 本发明提出一种基于隐式场的十亿像素场景人群三维重建方法和装置,其中,方法包括:获取十亿像素场景图像;检测出十亿像素场景中的人和并将其分割出来;对于分割出的场景图片,使用深度神经网络进行特征提取,并估计出人的形状和姿态;使用高精度扫描的人体模型渲染出观察人体不同视角的图片作为训练数据;训练遮挡情况下的人体重建;使用基于可见性的重要性采样,对三维人体可见部分加强采样点密度并提高权重,加强模型的细节。使用卷积神经网络提取训练图片的特征,并使用注意力机制关联三维人体先验与隐式场模型,在遮挡情况下完成对人体的高精度重建。将十亿像素场景中得到的三维人体与隐式场模型结合,生成高分辨率的人群三维重建模型。

    基于深度学习的人脸图片实时高光去除方法及装置

    公开(公告)号:CN108596062B

    公开(公告)日:2021-04-06

    申请号:CN201810327486.8

    申请日:2018-04-12

    Applicant: 清华大学

    Abstract: 本发明公开了一种基于深度学习的人脸图片实时高光去除方法及装置,其中,方法包括:通过人脸拟合方法从人脸图片中提取人脸区域;从人脸区域中提取人脸高光分布图,以建立人脸图片与人脸高光分布图构成的数据集;通过深度学习生成对抗网络,并通过数据集对对抗网络训练,以获取去除高光网络模型;通过去除高光网络模型去除人脸图片的高光,以得到人脸图片的高光去除结果。该方法能够在去除高光的同时输出具有很强真实感的图片,简单易实现,应用范围广。

Patent Agency Ranking