-
公开(公告)号:CN110334667A
公开(公告)日:2019-10-15
申请号:CN201910620017.X
申请日:2019-07-10
Applicant: 广东工业大学
Abstract: 本申请所提供的一种基于IRCNN和MTCNN的具有尺度旋转不变性的静脉识别方法,包括:将目标静脉图像输入预设IRCNN模型进行锐化处理,得到锐化图像;将锐化图像输入预设MTCNN模型,输出特征图;其中,预设MTCNN模型是基于预设参数进行结构构建的模型;将特征图中特征点相对特征图的方框的相对位置与预设相对位置进行比对以实现身份识别。该方法先用IRCNN模型来进行图像增强,将特征变得明显,再用MTCNN模型来提取特征,得到特征图。由于MTCNN模型具有旋转不变性和尺度不变性,故提取特征更加精确,即得到的特征图更加精确,进而能够提高身份识别的精确度。本申请还提供一种基于IRCNN和MTCNN的具有尺度旋转不变性的静脉识别系统、设备及计算机可读存储介质,均具有上述有益效果。
-
公开(公告)号:CN112464289A
公开(公告)日:2021-03-09
申请号:CN202011453316.8
申请日:2020-12-11
Applicant: 广东工业大学
IPC: G06F21/62 , G06F16/215 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明提供一种隐私数据的清洗方法,包括以下步骤:S1:从数据所有方中获取隐私数据,并对隐私数据进行预处理;S2:形成第一缺失数据集;形成无缺失数据集;S3:在第一缺失数据集中,形成第二缺失数据集,形成异常数据集;S4:利用数据挖掘算法构建数据填充预测模型,并利用数据填充预测模型对第二缺失数据集中的各项属性数据进行缺失值预测和填充,从而得到已填充好的数据集;S5:将已填充好的数据集与无缺失数据集进行合并,得到合并数据集,并将合并数据集与异常数据集发送回数据所有方,完成对隐私数据的清洗。本发明提供一种隐私数据的清洗方法,解决了现有的数据清洗方法不能对隐私数据进行清洗的问题。
-
公开(公告)号:CN110334667B
公开(公告)日:2023-07-25
申请号:CN201910620017.X
申请日:2019-07-10
Applicant: 广东工业大学
IPC: G06V40/14 , G06V10/82 , G06N3/0464 , G06T5/00
Abstract: 本申请所提供的一种基于IRCNN和MTCNN的具有尺度旋转不变性的静脉识别方法,包括:将目标静脉图像输入预设IRCNN模型进行锐化处理,得到锐化图像;将锐化图像输入预设MTCNN模型,输出特征图;其中,预设MTCNN模型是基于预设参数进行结构构建的模型;将特征图中特征点相对特征图的方框的相对位置与预设相对位置进行比对以实现身份识别。该方法先用IRCNN模型来进行图像增强,将特征变得明显,再用MTCNN模型来提取特征,得到特征图。由于MTCNN模型具有旋转不变性和尺度不变性,故提取特征更加精确,即得到的特征图更加精确,进而能够提高身份识别的精确度。本申请还提供一种基于IRCNN和MTCNN的具有尺度旋转不变性的静脉识别系统、设备及计算机可读存储介质,均具有上述有益效果。
-
公开(公告)号:CN110110672A
公开(公告)日:2019-08-09
申请号:CN201910389191.8
申请日:2019-05-10
Applicant: 广东工业大学
Abstract: 本发明公开了一种人脸表情识别方法、装置、设备及计算机可读存储介质,其中,该方法包括:获取待识别图片,并检测所述待识别图片中包含的人脸区域;将所述人脸区域定义为预设数量的人脸分区,每个所述人脸分区均具有以所述人脸区域的纵向中心线为对称线互相对称的另一所述人脸分区;基于特征点匹配算法确定包含被遮挡区域的人脸分区,并利用与包含被遮挡区域的人脸分区互相对称的人脸分区进行水平镜像得到的图片替换该包含被遮挡区域的人脸分区;对所述人脸区域进行表情识别,以基于识别所得结果进行人机智能交互。本申请先将人脸区域补充完整,进而对补充完整的人脸区域进行表情识别,从而能够充分识别到完整的人脸表情特征,减小了误差率。
-
公开(公告)号:CN109658442A
公开(公告)日:2019-04-19
申请号:CN201811572486.0
申请日:2018-12-21
Applicant: 广东工业大学
Abstract: 本发明实施例公开了一种多目标跟踪方法、装置、设备及计算机可读存储介质。其中,方法包括预先基于FCN算法、对多张预先标注车型信息和车辆位置的样本图像训练得到目标分割模型,用于从输入图像中分割得到车辆并计算各车辆的位置坐标。将待跟踪车辆图像输入目标分割模型中,得到该图像中各目标车辆的位置坐标信息;依次计算每个目标车辆与前一帧车辆图像中各源车辆的位置坐标的差值,并从各差值中确定最小差值;若目标车辆的最小差值不大于预设阈值,则目标车辆为最小差值对应源车辆在待跟踪车辆图像中的跟踪目标;反之,将目标车辆作为新出现的源车辆。本申请实现了视频序列中对多目标车辆的快速、准确跟踪,提升了多目标跟踪的实时性。
-
公开(公告)号:CN110084191B
公开(公告)日:2024-02-23
申请号:CN201910343779.X
申请日:2019-04-26
Applicant: 广东工业大学
IPC: G06V40/16 , G06N3/0464 , G06V10/82
Abstract: 本发明公开了一种眼部遮挡检测方法及系统,方法包括:从获取的脸部图像中获取眼部区域图像;使用第一卷积神经网络对眼部区域图像提取特征,运算出眼部位置,使用第二卷积神经网络对眼部区域图像提取特征,得到眼部区域图像的特征图,并根据得到的眼部位置从所述特征图中获取眼部特征;对获得的眼部特征进行反卷积处理,根据反卷积处理得到的图像运算出指示眼部遮挡情况的结果。本发明眼部遮挡检测方法及系统,根据获取的用户脸部图像能够检测出用户眼部的遮挡情况,与现有技术相比可以不用测试人员提示用户遮挡眼部,从而降低了测试人员的工作量。
-
公开(公告)号:CN109658442B
公开(公告)日:2023-09-12
申请号:CN201811572486.0
申请日:2018-12-21
Applicant: 广东工业大学
Abstract: 本发明实施例公开了一种多目标跟踪方法、装置、设备及计算机可读存储介质。其中,方法包括预先基于FCN算法、对多张预先标注车型信息和车辆位置的样本图像训练得到目标分割模型,用于从输入图像中分割得到车辆并计算各车辆的位置坐标。将待跟踪车辆图像输入目标分割模型中,得到该图像中各目标车辆的位置坐标信息;依次计算每个目标车辆与前一帧车辆图像中各源车辆的位置坐标的差值,并从各差值中确定最小差值;若目标车辆的最小差值不大于预设阈值,则目标车辆为最小差值对应源车辆在待跟踪车辆图像中的跟踪目标;反之,将目标车辆作为新出现的源车辆。本申请实现了视频序列中对多目标车辆的快速、准确跟踪,提升了多目标跟踪的实时性。
-
公开(公告)号:CN110111316B
公开(公告)日:2023-07-18
申请号:CN201910344151.1
申请日:2019-04-26
Applicant: 广东工业大学
IPC: G06T7/00 , G06N3/0464 , G06N3/084 , G16H50/20
Abstract: 本发明公开了一种基于眼部图像识别弱视的方法及系统,从获取的脸部图像中获取眼部区域图像;使用第一卷积神经网络对眼部区域图像提取特征,运算出眼部位置,使用第二卷积神经网络对眼部区域图像提取特征,得到特征图,并根据得到的眼部位置从特征图中获取眼部特征;对获得的眼部特征进行反卷积处理,使用第三卷积神经网络对反卷积处理得到的图像提取特征,运算出瞳孔位置,使用第四卷积神经网络对反卷积处理得到的图像提取特征,得到该图像的特征图,并根据得到的瞳孔位置从该图像中获取瞳孔特征;根据获得的瞳孔特征运算出眼部是否有弱视问题的结果。本发明方法及系统从脸部图像中提取出眼部瞳孔特征,根据眼部瞳孔特征判断眼部是否有弱视问题。
-
公开(公告)号:CN110111316A
公开(公告)日:2019-08-09
申请号:CN201910344151.1
申请日:2019-04-26
Applicant: 广东工业大学
Abstract: 本发明公开了一种基于眼部图像识别弱视的方法及系统,从获取的脸部图像中获取眼部区域图像;使用第一卷积神经网络对眼部区域图像提取特征,运算出眼部位置,使用第二卷积神经网络对眼部区域图像提取特征,得到特征图,并根据得到的眼部位置从特征图中获取眼部特征;对获得的眼部特征进行反卷积处理,使用第三卷积神经网络对反卷积处理得到的图像提取特征,运算出瞳孔位置,使用第四卷积神经网络对反卷积处理得到的图像提取特征,得到该图像的特征图,并根据得到的瞳孔位置从该图像中获取瞳孔特征;根据获得的瞳孔特征运算出眼部是否有弱视问题的结果。本发明方法及系统从脸部图像中提取出眼部瞳孔特征,根据眼部瞳孔特征判断眼部是否有弱视问题。
-
公开(公告)号:CN109657715A
公开(公告)日:2019-04-19
申请号:CN201811520565.7
申请日:2018-12-12
Applicant: 广东工业大学
Abstract: 本发明公开了一种语义分割方法、装置、设备及介质。该方法步骤包括:获取目标帧图像,并在目标帧图像中划分多个独立的目标区域;分别对每个目标区域执行基于相应语义分割模型的语义分割操作,生成对应的结果图像;其中,语义分割模型是利用卷积神经网络按目标区域对应的语义划分标准训练生成的。由于本方法是将完整的目标帧图像划分为多个独立的目标区域,各个目标区域的语义分割相互独立,进而相对避免了因用有限种类的颜色标记表征较多种类语义含义的像素分组,而造成颜色标记在后续的图像理解过程中相互混淆的情况发生,以此保证了语义分割结果的可用性。此外,本发明还提供一种语义分割装置、设备及介质,有益效果同上所述。
-
-
-
-
-
-
-
-
-