基于自监督时空运动先验的单视角遮挡人体运动重建方法

    公开(公告)号:CN114926594A

    公开(公告)日:2022-08-19

    申请号:CN202210684494.4

    申请日:2022-06-17

    Applicant: 东南大学

    Abstract: 本发明提供了一种基于自监督时空运动先验的遮挡人体运动序列重建方法,包括以下步骤:S1.人体运动合成与表示;S2.遮挡人体时空先验网络构建;S3.遮挡人体时空先验网络训练;S4.三维运动重建网络构建;S5.三维运动重建网络训练;S6.全局位置估计;S7.实时单视角遮挡人体运动重建。本发明可以快速合成大量遮挡数据,且不影响模型在真实数据上的泛化能力,解决了现有方法对真实遮挡人体数据的强烈依赖。

    一种针对体育运动场景的多视角相机标定方法

    公开(公告)号:CN114842092A

    公开(公告)日:2022-08-02

    申请号:CN202210534979.5

    申请日:2022-05-17

    Applicant: 东南大学

    Abstract: 本发明公开了一种针对体育运动场景的多视角相机标定方法,包括以下步骤:搭建多视角相机系统,有效地拍摄体育场景中的人体关键点和场地关键点;采用针孔相机模型,并将相机参数化表示;分别给出场地和人体二维关键点与三维关键点的表示方法;构建关键点提取网络,监督训练关键点提取网络直至收敛;使用训练好的关键点提取网络对视频中二维场地关键点和二维人体关键点进行检测;利用静态场地语义初始化相机内外参数,结合静态场地语义和动态人体语义作为约束,对初始化后的相机内外参数和人体运动进行光束平差优化来获得准确的相机内外参数。本发明使用了场地关键点来初始化相机的内参和外参,具有更好的稳定性和准确性。

    一种搭建针对手势检测的深度学习网络结构的方法及系统

    公开(公告)号:CN108334880B

    公开(公告)日:2021-11-26

    申请号:CN201810030295.5

    申请日:2018-01-12

    Applicant: 东南大学

    Inventor: 王雁刚 赵诗雨

    Abstract: 本发明公开了一种搭建针对手势检测的深度学习网络结构的方法及系统,方法包括:针对已有的手势图像数据集及手势的骨架信息标签搭建第一卷积神经网络;针对同样的数据集及手势的语义分割标签搭建第二卷积神经网络;将两个卷积神经网络的数据层和损失层合并,用并联的方式对两个网络进行连接;将两个网络的全卷积层输出结果分别反馈到对方网络的前端作为输入的一部分;利用改进后的网络结构进行训练、得到模型。系统包括:骨架检测单元,语义分割单元,全卷积层输出交叉反馈单元。本发明能够只通过一个深度学习网络对手势的骨架信息和语义分割信息进行并行检测,可以同时输出骨架检测和语义分割结果,且更为准确。

    一种大场景下基于人体姿态估计的相机标定方法

    公开(公告)号:CN112581540A

    公开(公告)日:2021-03-30

    申请号:CN202011520371.4

    申请日:2020-12-21

    Applicant: 东南大学

    Abstract: 本发明公开了一种大场景下基于人体姿态估计的相机标定方法,该方法包括步骤1:得到各相机的初始相机参数;步骤2:在多视角相机环境下采集多人数据集用于优化初始相机参数;步骤3:预测数据集中的人体关节点信息;步骤4:将多视角下的人体二维关节点利用初始化的相机参数进行投影,将二维图像坐标系下的像素坐标投射到世界坐标系下得到关节点的三维坐标,并将同一关节点的三维投影进行归一化;步骤5:将关节点三维空间坐标重投影到各个视角下的图像坐标系中,得到关节点真值和重投影关节点间的均方误差,利用LM算法进行非线性二次优化并对相机参数进行更新,直到均方误差达到设定的阈值。本发明的方法能够实现更加精确的相机标定。

    一种可调节多视点三维重建采集系统

    公开(公告)号:CN109854893B

    公开(公告)日:2020-08-14

    申请号:CN201811487954.4

    申请日:2018-12-06

    Applicant: 东南大学

    Inventor: 王雁刚 赵郑逸

    Abstract: 本发明提供了一种多视点三维重建采集系统,包括升降旋转式笼型采集器、以及固定在升降旋转式笼型采集器上的相机和光源,升降旋转式笼型采集器包括笼型相机固定支架、外部升降旋转机构,笼型相机固定支架包括上部圆环、中部圆环、下部圆环、连接在中部和下部圆环之间的若干侧柱,连接在上部和中部圆环之间的若干斜柱,上部圆环内还连接有十字支架,相机固定在侧柱上,光源固定在十字支架上;外部升降旋转机构包括连接在笼型相机固定支架两侧的轴承、连接在支撑框和笼型相机固定支架之间的丝杆结构、与丝杆结构连接的支撑框。本发明系统结构新颖,对于不同身材尺寸被摄者,可调节采集系统的高度、姿态以适应采集对象,采集其手部头部图像。

    一种针对物体遮挡场景的人体形状和姿态估计方法

    公开(公告)号:CN111339870A

    公开(公告)日:2020-06-26

    申请号:CN202010099358.X

    申请日:2020-02-18

    Applicant: 东南大学

    Abstract: 本发明公开了一种针对物体遮挡场景的人体形状和姿态估计方法,将计算得到的弱透视投影参数转换到相机坐标下,获得不带遮挡情况下包含人体形状信息的UV图像;对人体二维图像加入随机物体图片遮挡,并获取遮挡情况下的人体掩膜;将获得的虚拟遮挡数据训练编码-解码结构的UV贴图修复网络;输入真实物体遮挡人体彩色图像,以掩膜图像作为真值构建编码-解码结构的显著性检测网络;使用编码得到的隐空间特征监督人体编码网络训练;输入遮挡人体彩色图像,得到完整的UV图像;使用UV图像与人体三维模型的顶点对应关系恢复出遮挡情况下的人体三维模型。本发明将遮挡人体形状估计转化为二维UV贴图的图像修复问题,进而实现遮挡场景下人体的实时、动态重建。

    一种多视角小白鼠动态三维重建方法

    公开(公告)号:CN111105486A

    公开(公告)日:2020-05-05

    申请号:CN201911245439.X

    申请日:2019-12-07

    Applicant: 东南大学

    Inventor: 王雁刚 赵郑逸

    Abstract: 本发明涉及一种多视角小白鼠动态三维重建方法,其特征在于,所述方法包括以下步骤:步骤S101,多视角同步视频序列采集;步骤S102,二维小白鼠骨架节点数据集标注;步骤S103,二维小白鼠骨架节点检测神经网络训练;步骤S104,摄像头标定;步骤S105,三维小白鼠骨架节点估计;步骤S106,基于模板的线性混合蒙皮网格变形。本发明通过多视角三维视觉技术捕捉小白鼠三维动作,直观、全面地获取小白鼠的行为模式和体型变化,相较于以往基于二维图片的行为分析更具医学观察价值。

    基于动作增量模型的动作重定向方法

    公开(公告)号:CN110400365A

    公开(公告)日:2019-11-01

    申请号:CN201910590974.2

    申请日:2019-07-02

    Applicant: 东南大学

    Abstract: 本发明提供了一种基于动作增量模型的动作重定向方法,包括:直接复制原始人物动作的节点旋转角度与根节点速度到目标人物骨架上作为初始目标动作;采用骨头长度、局部动作与根节点动作表征原始人物动作与初始目标动作;采用循环神经网络分别对原始人物动作以及初始目标动作进行编码;将原始人物动作编码特征、初始目标动作编码特征以及目标人物输入解码器获得目标动作的动作增量;将目标动作的动作增量与初始目标动作求和得到预测目标动作;针对预测目标动作进行后处理,解决脚步滑动问题。本发明方法无需手工设计复杂的约束条件即可获得高质量的目标动作,针对原始人物与目标人物骨架差异大、动作极其复杂的情况,本发明仍然具有优越的性能表现。

    一种针对体育运动场景的多视角相机标定方法

    公开(公告)号:CN114842092B

    公开(公告)日:2024-12-20

    申请号:CN202210534979.5

    申请日:2022-05-17

    Applicant: 东南大学

    Abstract: 本发明公开了一种针对体育运动场景的多视角相机标定方法,包括以下步骤:搭建多视角相机系统,有效地拍摄体育场景中的人体关键点和场地关键点;采用针孔相机模型,并将相机参数化表示;分别给出场地和人体二维关键点与三维关键点的表示方法;构建关键点提取网络,监督训练关键点提取网络直至收敛;使用训练好的关键点提取网络对视频中二维场地关键点和二维人体关键点进行检测;利用静态场地语义初始化相机内外参数,结合静态场地语义和动态人体语义作为约束,对初始化后的相机内外参数和人体运动进行光束平差优化来获得准确的相机内外参数。本发明使用了场地关键点来初始化相机的内参和外参,具有更好的稳定性和准确性。

    一种基于生成模型的新视角人手图像合成方法

    公开(公告)号:CN117475019A

    公开(公告)日:2024-01-30

    申请号:CN202311455957.0

    申请日:2023-11-03

    Applicant: 东南大学

    Abstract: 本发明提出了一种基于生成模型的新视角人手图像合成方法,用于从输入的单视角图像中合成其他视角的人手图像。该方法首先准备成对的训练数据,再设计用于估计法线图的法线图估计网络,并估计与目标图像对应的法线图;然后预训练一个基于扩散模型的网络,用于合成低分辨率的新视角人手图像:预训练一个基于生成对抗网络的超分辨率模块,使得该模块具备提升低分辨率图像的分辨率和质量的能力,最后联合训练扩散模型和生成对抗网络,并将生成对抗网络级联到扩散模型之后:通过联合训练上述两个不同的模块,使其能够应用于人手图像合成任务。本发明只需要输入单张单视角人手图像,便可以得到一系列逼真的新视角,有助于推动基于多视角的三维重建。

Patent Agency Ranking