-
公开(公告)号:CN114418903A
公开(公告)日:2022-04-29
申请号:CN202210070782.0
申请日:2022-01-21
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本说明书实施例提供了基于隐私保护的人机交互方法及人机交互装置。在人机交互方法中,在人体感知系统所具有的3D摄像头的视野范围内有用户时,利用该3D摄像头获取该用户的深度图像;将深度图像中基于像素坐标系的各个像素点转换成基于空间坐标系的3D点云;根据转换得到的3D点云得到用户的空间位置和/或人体姿态;以及基于空间位置和/或人体姿态执行针对用户的交互操作。
-
公开(公告)号:CN112052834B
公开(公告)日:2022-04-08
申请号:CN202011051980.X
申请日:2020-09-29
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本说明书实施例公开了一种基于隐私保护的面部识别方法、装置及设备,该方法包括:获取包括目标用户的面部的三维图像和二维图像,并基于目标用户的面部对应的预设图像关键点,对三维图像和二维图像进行对齐处理,得到对齐后的三维图像和二维图像;对对齐后的二维图像进行分块,得到对齐后的二维图像的多个分块图像,并对每个分块图像进行Arnold变换,得到像素点混淆的分块图像,以保护个人信息;基于像素点混淆的分块图像和对齐后的三维图像,得到目标用户的面部的图像数据;将目标用户的面部的图像数据输入预设的面部识别模型中,得到目标用户的面部的图像数据对应的特征向量,进而确定目标用户的身份信息,该面部识别模型基于神经网络构建。
-
公开(公告)号:CN113392763A
公开(公告)日:2021-09-14
申请号:CN202110661431.2
申请日:2021-06-15
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本说明书实施例公开了一种人脸识别方法、装置以及设备。方案包括:在用户人脸处于预定的人脸检测位置后,针对用户人脸,采集2D人脸图以及基于深度信息采集第一3D人脸图;对2D人脸图进行3D重建处理,得到3D人脸重建结果;根据3D人脸重建结果和第一3D人脸图,生成第二3D人脸图;根据第二3D人脸图,对用户进行识别。
-
公开(公告)号:CN111401331A
公开(公告)日:2020-07-10
申请号:CN202010343302.4
申请日:2020-04-27
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06K9/00
Abstract: 本说明书一个或多个实施例公开了一种人脸识别方法及装置,用以解决现有人脸识别方法对用户隐私保护性差的技术问题。所述方法包括:响应于第一用户发送的人脸识别请求,采集所述第一用户的第一人脸深度图像,所述第一人脸深度图像包括所述第一用户人脸上的各特征点的第一距离信息。根据所述第一距离信息,将所述第一人脸深度图像转换为第一人脸掩码图像。根据所述第一人脸掩码图像和预先训练的人脸识别模型对所述第一用户进行人脸识别,得到人脸识别结果。所述人脸识别模型基于多个样本用户的样本人脸掩码图像训练得到,所述样本人脸掩码图像基于所述样本用户的样本人脸深度图像转换得到。
-
公开(公告)号:CN119444879A
公开(公告)日:2025-02-14
申请号:CN202510033925.4
申请日:2025-01-08
Applicant: 浙江大学 , 支付宝(杭州)信息技术有限公司
Abstract: 本说明书实施例提供一种模型数据的压缩、解压缩方法及设备。在该压缩方法中,压缩设备获得待压缩的目标模型后,可以在M个拍摄视角中确定N个关键视角,并通过在N个关键视角下对目标模型中各点云的位置信息进行投影和反投影得到第一稀疏模型,再对第一稀疏模型中的各点云的属性信息进行渲染得到第二稀疏模型,使得第二稀疏模型的场景表征能力趋于目标模型的场景表征能力,进而,在N个关键视角下对第二稀疏模型中各点云的位置信息和属性信息进行投影,得到第一投影图像集合,并对第一投影图像集合中的各投影图像分别进行图像压缩,得到第二投影图像集合,并将第二投影图像集合作为目标模型对应的压缩数据。
-
公开(公告)号:CN114511911B
公开(公告)日:2024-11-26
申请号:CN202210181933.X
申请日:2022-02-25
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06V40/16 , G06V10/774 , G06V10/46 , G06V10/74
Abstract: 本说明书实施例公开了一种人脸识别方法、装置以及设备。方案包括:在用户人脸处于预定的人脸摆放位置后,针对用户人脸,基于深度信息采集3D人脸图;对3D人脸图进行坐标转换,得到用户人脸对应的3D人脸点云;根据3D人脸点云,通过预先训练的拟合参数预测模型,对进行3D人脸重建时所需的拟合参数进行预测;根据拟合参数,对预设的3D参考人脸网格进行拟合处理,得到3D参数化人脸数据,3D参考人脸网格中包含有多个顶点,多个顶点之间具有连接关系,且各顶点分别设置有人脸语义;根据3D参数化人脸数据,对用户进行识别。
-
公开(公告)号:CN114882550B
公开(公告)日:2024-05-14
申请号:CN202210391081.7
申请日:2022-04-14
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06V40/16 , G06V10/74 , G06V10/82 , G06N3/0464 , G06N3/09
Abstract: 本说明书实施例公开了一种人脸注册留底方法、装置以及设备。方案包括:获取用户人脸的3D人脸图,并根据3D人脸图,确定用户人脸的3D人脸点云;根据3D人脸点云,通过预先训练的拟合参数预测模型,对进行3D人脸重建时所需的拟合参数进行预测;根据拟合参数,对预设的3D参考人脸网格进行拟合处理,得到对应用户的3D参数化人脸数据,作为第一参数化数据;若之前已有用户的3D参数化人脸数据注册留底,则将已注册留底的用户的3D参数化人脸数据作为第二参数化数据,并确定第二参数化数据的时间戳;根据第一参数化数据、第二参数化数据,以及第二参数化数据的时间戳,生成第三参数化数据,作为用户注册留底的人脸数据。
-
公开(公告)号:CN117710501A
公开(公告)日:2024-03-15
申请号:CN202311699434.0
申请日:2023-12-11
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本公开提供一种AR特效的处理方法和系统,包括:对获得的活动场景的目标图像进行语义分割,得到分割结果,其中,分割结果用于表征目标图像中第一区域和第二区域,目标对象属于第二区域,且目标对象与第一区域相邻,根据分割结果对目标对象进行定位处理,得到目标对象的目标位置,在目标位置设置预设的AR特效,得到并输出包括AR特效的目标图像,以在可靠的位置将AR特效有效的融合于目标图像,进而使得包括AR特效的目标图像具有较高的准确性和可靠性,且提高现场观众的互动体验。
-
公开(公告)号:CN114913338A
公开(公告)日:2022-08-16
申请号:CN202210407639.6
申请日:2022-04-19
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本说明书实施例提供了一种分割模型的训练方法及装置,图像识别方法及装置。该分割模型包括:第一网络模型、第二网络模型以及第三网络模型。训练方法包括:获取样本图像对;样本图像对中包括对同一视觉范围拍摄后得到的RGB图像以及深度图像;将深度图像输入第一网络模型,得到第一深度特征提取结果;将深度图像与RGB图像的组合图像输入第二网络模型,得到目标对象的边缘特征;将目标对象的边缘特征以及第一深度特征提取结果输入第三网络模型,得到目标对象的分割结果;根据标签以及该目标对象的分割结果,对第一网络模型、第二网络模型以及第三网络模型进行参数调整。本说明书实施例能够更为准确地得到目标对象的分割信息。
-
公开(公告)号:CN114581978A
公开(公告)日:2022-06-03
申请号:CN202210183813.3
申请日:2022-02-28
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06V40/16 , G06V10/764 , G06V10/80 , G06V10/82 , G06V10/774 , G06K9/62
Abstract: 本说明书提供的人脸识别的方法和系统,基于特征融合模型将人脸图像的二维特征和三维特征进行融合,降低融合后的特征所占用的存储空间,在不增加总的存储空间的情况下增加数据库中存储的特征数量,提升用户覆盖率的同时降低设备成本。所述特征融合模型是基于深度图像提取的采集三维特征以及基于二维特征估计的估计三维特征共同训练得到的,从而提升模态缺失场景的特征融合性能,提升人脸识别效率和准确率。
-
-
-
-
-
-
-
-
-