-
公开(公告)号:CN118296581A
公开(公告)日:2024-07-05
申请号:CN202410726027.2
申请日:2024-06-06
Applicant: 暨南大学
IPC: G06F21/31 , G06F21/32 , G06F21/45 , G06F3/01 , G06N3/045 , G06N3/0464 , G06N20/10 , G06F18/213 , G06F18/23 , G06F18/2411 , A63F13/79 , G06F123/02
Abstract: 本发明公开了一种基于VR肢体交互的连续身份认证方法及其系统,包括:获取用户选择的一种肢体移动方式;基于虚拟移动技术,获取用户一种肢体移动的虚拟视点;基于所述虚拟视点的移动,采集用户的移动行为特征;将所述移动行为特征作为用户的个人签名,基于所述移动行为特征训练时间序列模型,得到训练好的时间序列模型;获取用户的待认证移动行为特征,将所述待认证移动行为特征输入至训练好的时间序列模型中,得到用户身份预测的置信度;对所述置信度进行阈值判断,得到用户身份认证结果。本发明可以持续的监控用户的身份,防止用户登录后被冒名顶替,或者用户故意将凭证泄露给其他人。
-
公开(公告)号:CN116524545B
公开(公告)日:2023-09-15
申请号:CN202310790558.3
申请日:2023-06-30
Applicant: 暨南大学 , 郑州大学第一附属医院
IPC: G06V40/10 , G06N3/045 , G06V10/774 , G06V10/82 , G06V20/40
Abstract: 本发明提供了一种基于人工智能的胚胎分级方法,获取胚胎培育过程中的视频,根据设置的时间节点从视频中抽取帧,建立帧和相对时间的关系,所述相对时间为抽取的帧在所述视频中的时间减去所述视频的第一帧的时间;构建与所述时间节点对应的ViT网络,对每个时间节点对应的ViT网络进行训练,得到训练后的ViT网络;将抽取的帧分别作为对应的ViT网络的输入,得到不同时间节点的class token、每个分级对应的概率;对时间节点编码,将时间编码结果和对应的class token相加,作为Transformer的输入,将Transformer的输出作为整个视频每个分级的概率;根据不同时间节点的每个分级对应的概率、整个视频每个分级的概率得到胚胎分级结果。本发明提高了对胚胎进行分级的准确性。
-
公开(公告)号:CN113918909B
公开(公告)日:2024-11-05
申请号:CN202111012004.8
申请日:2021-08-31
Applicant: 暨南大学
Abstract: 本发明公开了一种基于AR设备的多因子认证系统及方法,该系统包括输入模块、显示模块、存储模块以及验证模块;其中输入模块主要负责随机数语音认证的语音输入与掌纹认证的掌纹截取输入并传输给存储模块进行存储或验证模块进行验证;显示模块负责AR设备的用户界面显示,包括认证方式的显示、随机数的显示与认证结果的显示;存储模块负责存储用户录入的密码及掌纹;验证模块负责读取输入模块输入的校正值与掌纹与存储模块中的密码与掌纹,并进行验证,将验证结果返回给显示模块进行显示。本发明丰富了AR设备的用户认证手段并提高了AR设备的安全性,且无需复杂的硬件设备支持,使用成本较为低廉,有利于实际应用推广。
-
公开(公告)号:CN116524545A
公开(公告)日:2023-08-01
申请号:CN202310790558.3
申请日:2023-06-30
Applicant: 暨南大学 , 郑州大学第一附属医院
IPC: G06V40/10 , G06N3/045 , G06V10/774 , G06V10/82 , G06V20/40
Abstract: 本发明提供了一种基于人工智能的胚胎分级方法,获取胚胎培育过程中的视频,根据设置的时间节点从视频中抽取帧,建立帧和相对时间的关系,所述相对时间为抽取的帧在所述视频中的时间减去所述视频的第一帧的时间;构建与所述时间节点对应的ViT网络,对每个时间节点对应的ViT网络进行训练,得到训练后的ViT网络;将抽取的帧分别作为对应的ViT网络的输入,得到不同时间节点的class token、每个分级对应的概率;对时间节点编码,将时间编码结果和对应的class token相加,作为Transformer的输入,将Transformer的输出作为整个视频每个分级的概率;根据不同时间节点的每个分级对应的概率、整个视频每个分级的概率得到胚胎分级结果。本发明提高了对胚胎进行分级的准确性。
-
公开(公告)号:CN112199657B
公开(公告)日:2023-01-24
申请号:CN202010995943.8
申请日:2020-09-21
Applicant: 暨南大学
Abstract: 本发明公开了一种基于虚拟现实环境的身份认证方法和VR装置,方法中,VR终端先接收用户身份认证请求,然后在VR环境中输出功能选择界面,当接收到密码设置指令时,在VR环境中输出可选的多个特征类别和各特征类别下的多个特征值选项,并根据接收到的不同特征值生成用户密码,然后在VR环境中重新输出功能选择界面;当VR终端接收到身份认证指令后,在VR环境中输出随机生成且可选的多个密码对象;然后VR终端判断用户选择的密码对象是否都符合用户密码以及判断符合用户密码的密码对象是否已全部选中,符合且全选中的情况下通过认证,再在VR环境中输出用户登录界面。本发明可安全快捷地实现VR环境下的密码设置和用户身份认证。
-
公开(公告)号:CN113918901A
公开(公告)日:2022-01-11
申请号:CN202111047560.9
申请日:2021-09-08
Applicant: 暨南大学
Abstract: 本发明公开了一种基于空间交互的虚拟现实用户安全认证方法、系统及介质。该方法包括:接受用户的身份认证请求,在VR系统中输出提供密码设置、身份认证的功能选择界面;若进行密码设置,则在VR系统中利用立体可交互模型进行密码字符串的输入;若进行身份认证则通过与密码设置界面相同的立体可交互模型进行密码字符串的输入;完成密码输入后进行设置密码的对比,完成身份认证。本发明创新性地利用近似于球体的正二十面体设计了一种新的可交互的三维输入布局模型,该模型可以通过交互操作操纵其进行定向旋转,无缝切换模型的主操作面,可操作性强,相较于传统的口令密码验证增加了密钥空间,提升了口令验证的安全性,增加了攻击者的破解难度。
-
公开(公告)号:CN118296581B
公开(公告)日:2024-12-13
申请号:CN202410726027.2
申请日:2024-06-06
Applicant: 暨南大学
IPC: G06F21/31 , G06F21/32 , G06F21/45 , G06F3/01 , G06N3/045 , G06N3/0464 , G06N20/10 , G06F18/213 , G06F18/23 , G06F18/2411 , A63F13/79 , G06F123/02
Abstract: 本发明公开了一种基于VR肢体交互的连续身份认证方法及其系统,包括:获取用户选择的一种肢体移动方式;基于虚拟移动技术,获取用户一种肢体移动的虚拟视点;基于所述虚拟视点的移动,采集用户的移动行为特征;将所述移动行为特征作为用户的个人签名,基于所述移动行为特征训练时间序列模型,得到训练好的时间序列模型;获取用户的待认证移动行为特征,将所述待认证移动行为特征输入至训练好的时间序列模型中,得到用户身份预测的置信度;对所述置信度进行阈值判断,得到用户身份认证结果。本发明可以持续的监控用户的身份,防止用户登录后被冒名顶替,或者用户故意将凭证泄露给其他人。
-
公开(公告)号:CN111858933B
公开(公告)日:2024-08-06
申请号:CN202010659957.2
申请日:2020-07-10
Applicant: 暨南大学
IPC: G06F16/35 , G06F40/211 , G06N3/0464
Abstract: 本发明公开了一种基于字符的层次化文本情感分析方法及系统,该方法步骤包括:对给定的文本数据进行预处理,包括设计字符集、划分文本中的句子、基于字符集得到数字形式的文本表示;建立字符级别的神经网络模型:将预处理后的文本数据输入字符级别的神经网络模型,依次经过模型嵌入层、卷积神经网络层和解码层,提取并输出文本中每个句子的特征向量;建立句子级别的神经网络模型:以字符级别网络的输出作为输入,依次经过循环神经网络层、注意力层和解码层,输出文本的情感分类的概率分布。本发明从字符级别对文本提取初始特征,句子级别网络既包含了时序信息,又能让网络倾向于对情感分析结果有利的句子,提高了模型的准确度和健壮性。
-
公开(公告)号:CN112214749B
公开(公告)日:2023-01-24
申请号:CN202010994886.1
申请日:2020-09-21
Applicant: 暨南大学
Abstract: 本发明公开了一种基于移动VR设备的无接触式用户安全认证方法,包括用户先向移动VR设备发起密码设置请求,基于移动VR设备,通过视觉注视的方式进行初始密码验证;用户再视觉选择移动VR设备在VR环境中输出的动态数字,从而完成数字密码长度和数字密码的设置,然后再视觉选择移动VR设备在VR环境中输出的图片块,从而完成图片密码的设置;用户向移动VR设备发起用户认证请求之后,通过视觉注视的方式输入对应数字密码长度的数字密码和图片密码,在移动VR设备判断所输入的密码是否与之前设置的密码一致的情况下密码验证通过,即完成用户认证。本发明可以非常方便安全地实现用户认证。
-
公开(公告)号:CN113918909A
公开(公告)日:2022-01-11
申请号:CN202111012004.8
申请日:2021-08-31
Applicant: 暨南大学
Abstract: 本发明公开了一种基于AR设备的多因子认证系统及方法,该系统包括输入模块、显示模块、存储模块以及验证模块;其中输入模块主要负责随机数语音认证的语音输入与掌纹认证的掌纹截取输入并传输给存储模块进行存储或验证模块进行验证;显示模块负责AR设备的用户界面显示,包括认证方式的显示、随机数的显示与认证结果的显示;存储模块负责存储用户录入的密码及掌纹;验证模块负责读取输入模块输入的校正值与掌纹与存储模块中的密码与掌纹,并进行验证,将验证结果返回给显示模块进行显示。本发明丰富了AR设备的用户认证手段并提高了AR设备的安全性,且无需复杂的硬件设备支持,使用成本较为低廉,有利于实际应用推广。
-
-
-
-
-
-
-
-
-