-
公开(公告)号:CN116310370A
公开(公告)日:2023-06-23
申请号:CN202310352188.5
申请日:2023-03-29
Applicant: 支付宝(杭州)信息技术有限公司
Inventor: 陈志军
IPC: G06V10/40 , G06V10/82 , G06V10/764 , G06V10/774 , G06V10/25 , G06V10/26 , G06N3/0464 , G06N3/08
Abstract: 本说明书实施例提供了证件防伪检测模型的训练方法、证件防伪检测方法及装置。在该训练方法中,得到证件图像样本集;该证件图像样本集中包括多个证件图像以及每一个证件图像的标签;标签用于标注证件图像中被篡改的区域;将证件图像样本集输入所述第一子网络中,利用证件防伪检测模型的损失函数训练第一子网络,以通过训练该第一子网络来训练证件防伪检测模型对于被篡改区域的定位能力及目标检测能力;将证件图像样本集输入所述第二子网络中,利用证件防伪检测模型的损失函数训练第二子网络,以通过训练该第二子网络来训练证件防伪检测模型区分被篡改区域与图像背景区域的能力。本说明书实施例能够更为准确地识别出证件图像中被篡改的区域。
-
公开(公告)号:CN113850771A
公开(公告)日:2021-12-28
申请号:CN202111094017.4
申请日:2021-09-17
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本说明书实施例提供了一种用户证件照的验证方法及装置,该方法由验证方服务器执行,该方法包括:向用户终端发送第一指令,第一指令用于指示证件的拍摄角度;从用户终端接收至少一个第一证件照;第一证件照,为用户响应于第一指令拍摄的、证件被置于闪光装置照射下的图像;分别确定至少一个第一证件照中,由闪光装置照射形成的光斑的实际位置;根据第一指令确定光斑的期望位置,根据实际位置与期望位置是否匹配,确定第一证件照是否为真。
-
公开(公告)号:CN113850214A
公开(公告)日:2021-12-28
申请号:CN202111152676.9
申请日:2021-09-29
Applicant: 支付宝(杭州)信息技术有限公司
Inventor: 陈志军
Abstract: 本说明书一个或多个实施例提供一种针对活体检测的注入攻击识别方法和装置,所述方法包括:响应于针对用户的活体检测请求,获取电子设备根据不同的相机参数取值分别拍摄的多张待检测图像;对比所述多张待检测图像,以判断所述多张待检测图像的相似性;若不相似,则判定所述多张待检测图像为所述电子设备针对所述用户拍摄的活体图像;若相似,则判定所述多张待检测图像为注入攻击图像。
-
公开(公告)号:CN120046647A
公开(公告)日:2025-05-27
申请号:CN202411987040.X
申请日:2024-12-31
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本申请实施例公开了一种智能体训练方法,该方法采用强化学习策略训练了一个用于控制机器人进行证件信息采集的智能体,该智能体能够适应不同业务场景下的证件信息采集需求。基于该智能体,可以通过构建任务描述信息来控制机器人自动化地执行证件采集任务,采集效率高且能够准确遍历所需的采集场景。本说明书实施例所述的智能体训练装置、证件信息采集方法及装置也具有上述有益效果。
-
公开(公告)号:CN119516239A
公开(公告)日:2025-02-25
申请号:CN202411273219.9
申请日:2024-09-11
Applicant: 支付宝(杭州)信息技术有限公司
Inventor: 陈志军
Abstract: 本说明书实施例公开了一种图像风控方法、装置、存储介质及电子设备,通过统一提取样本的多维度尺寸的图像特征,使得可以通过后续不同的模型分支层,同时进行图像整体分类的预测和图像中目标物的检测,并且由于训练时是将不同模型分支层的损失,融合为一个综合损失,使得训练模型过程时,目标物检测的结果和图像整体分类之间互相参考,避免了训练不同模型分别执行不同任务,出现任务结果相抵触的情况。因此基于该种过程训练得到的图像风控模型进行风控时,给出的风控结果更为准确,可以显著提高内容风险防控的效果。
-
公开(公告)号:CN119339109A
公开(公告)日:2025-01-21
申请号:CN202411269690.0
申请日:2024-09-11
Applicant: 支付宝(杭州)信息技术有限公司
Inventor: 陈志军
IPC: G06V10/74 , G06V10/25 , G06V10/40 , G06V10/82 , G06N3/0455
Abstract: 本说明书实施例公开了一种风险识别方法,本方法保留机器学习模型的目标检测功能,弃用机器学习模型的文本描述功能,利用机器学习从待识别图像中识别出目标物,再提取各目标物的图像特征,利用预先提取并保存的风险特征与各目标物的图像特征相比对,来识别待识别图像中是否存在风险,无需机器学习模型对新型风险进行迭代学习,可有效提高识别风险的准确性。
-
公开(公告)号:CN118262367A
公开(公告)日:2024-06-28
申请号:CN202410251018.2
申请日:2024-03-05
Applicant: 支付宝(杭州)信息技术有限公司
Inventor: 陈志军
IPC: G06V30/19
Abstract: 本说明书一个或多个实施例公开了一种OCR识别模型的训练方法,该方法将文字图片多模比对的原理嵌入小语种OCR识别过程中,通过较少的图文样本对即可实现OCR识别模型的训练,解决了小语种图片样本标注难、标注准确率低的问题,能够提高小语种OCR识别的准确度。相应地,本说明书的一个或多个实施例还公开了一种OCR识别模型的训练装置、OCR识别方法、OCR识别装置、小语种图像样本的标注方法、小语种图像样本的标注装置、计算机可读存储介质及电子设备。
-
公开(公告)号:CN118072328A
公开(公告)日:2024-05-24
申请号:CN202410139457.4
申请日:2024-01-31
Applicant: 支付宝(杭州)信息技术有限公司
Inventor: 陈志军
IPC: G06V30/19 , G06V30/146 , G06V10/82 , G06N3/08 , G06N3/045 , G06N3/0475 , G06N3/094 , G06V10/26
Abstract: 本说明书一个或多个实施例公开了一种证件防伪模型的优化方法,该方法包括:获取原始攻击样本;通过预训练的目标分割模型从所述原始攻击样本中分割出攻击掩码图像;基于所述攻击掩码图像,通过预训练的图像生成模型生成与所述攻击掩码图像相似的攻击图像;将所述攻击图像融合到正常的证件图像中,得到新的攻击样本;将所述新的攻击样本和所述原始攻击样本作为负样本,训练证件防伪模型。通过该方法,能够基于新的攻击快速优化证件防伪模型,从而能够在短时间内快速提升证件防伪模型对该类攻击的响应能力。相应地,本说明书还公开了证件防伪模型的优化装置、攻击响应方法及装置。
-
公开(公告)号:CN117496296A
公开(公告)日:2024-02-02
申请号:CN202311407018.9
申请日:2023-10-27
Applicant: 支付宝(杭州)信息技术有限公司
Inventor: 陈志军
IPC: G06V10/774 , G06V10/74 , G06V10/44 , G06V10/82 , G06V30/42 , G06N3/0464 , G06N3/0455 , G06N3/094 , G06N3/09
Abstract: 本说明书实施例公开了一种彩打检测模型训练方法、装置、存储介质及电子设备,包括:获取训练样本,训练样本包括正样本、第一负样本和第二负样本,通过彩打检测模型中的特征提取器提取训练样本对应的图像特征,通过彩打检测模型中的标签预测器,基于图像特征,得到表示训练样本是否为正样本的预测标签,以及通过彩打检测模型中的域判别器,基于图像特征,识别训练样本所属的负样本类型,负样本类型包括第一负样本和第二负样本,最后以预测标签和训练样本对应的真实标签的差异最小化,且域判别器识别的负样本类型与训练样本实际所属的负样本类型的差异最大化为优化目标,至少调整特征提取器和标签预测器的模型参数,得到训练完成的彩打检测模型。
-
公开(公告)号:CN117372836A
公开(公告)日:2024-01-09
申请号:CN202311307502.4
申请日:2023-10-08
Applicant: 支付宝(杭州)信息技术有限公司
Inventor: 陈志军
IPC: G06V10/82 , G06V20/00 , G06V10/774 , G06V10/764 , G06V10/80 , G06V10/44
Abstract: 本说明书实施例公开了一种篡改检测模型训练方法,包括:构建样本训练数据集,样本训练数据包括样本篡改图像和样本篡改图像对应的标签数据;通过篡改检测模型中的特征提取网络,提取得到样本篡改图像对应的篡改图像特征,然后通过异常预测网络对篡改图像特征进行异常概率预测,得到样本篡改图像对应的异常概率图像,以及通过阈值预测网络对篡改图像特征进行阈值预测,得到样本篡改图像对应的阈值图像,最后将异常概率图像和阈值图像作为篡改检测模型中的篡改分类网络的输入,通过篡改分类网络生成样本篡改图像对应的篡改检测结果;根据篡改检测结果和标签数据计算得到模型损失值,以最小化模型损失值为优化目标,调整篡改检测模型的模型参数。
-
-
-
-
-
-
-
-
-