覆盖人类交互证明系统和技术

    公开(公告)号:CN102884509B

    公开(公告)日:2014-11-05

    申请号:CN201180024001.4

    申请日:2011-05-09

    Applicant: 微软公司

    CPC classification number: G06F9/44 G06F21/36 G06F2221/2133 H04L9/32

    Abstract: 在这里描述的覆盖人类交互证明系统(“OHIPS”)和技术结合任何已知的或以后开发的基于计算机的应用或服务来操作,以便通过可靠地区分人类和非人类用户来提供对于资源的安全访问。人类通常具有区分未对准的字符或对象与正确对准的字符或对象的卓越能力。就此而论,OHIP将包括一个或多个视觉对象的图像分成两个或更多的局部图像,以形成HIP。局部图像也可以进一步被分成子局部图像的群组,和/或局部图像(或子局部图像)可以被移动,以致于在任何给定的对准位置上,用户只能够辨别一些视觉对象。用户被指示使用GUI在一个或多个预定对准位置上重新装配局部图像,以及用户被要求识别与一个或多个可视对象有关的信息。

    覆盖人类交互证明系统和技术

    公开(公告)号:CN102884509A

    公开(公告)日:2013-01-16

    申请号:CN201180024001.4

    申请日:2011-05-09

    Applicant: 微软公司

    CPC classification number: G06F9/44 G06F21/36 G06F2221/2133 H04L9/32

    Abstract: 在这里描述的覆盖人类交互证明系统(“OHIPS”)和技术结合任何已知的或以后开发的基于计算机的应用或服务来操作,以便通过可靠地区分人类和非人类用户来提供对于资源的安全访问。人类通常具有区分未对准的字符或对象与正确对准的字符或对象的卓越能力。就此而论,OHIP将包括一个或多个视觉对象的图像分成两个或更多的局部图像,以形成HIP。局部图像也可以进一步被分成子局部图像的群组,和/或局部图像(或子局部图像)可以被移动,以致于在任何给定的对准位置上,用户只能够辨别一些视觉对象。用户被指示使用GUI在一个或多个预定对准位置上重新装配局部图像,以及用户被要求识别与一个或多个可视对象有关的信息。

    用于富于表情的化身的实时动画

    公开(公告)号:CN102568023A

    公开(公告)日:2012-07-11

    申请号:CN201110386194.X

    申请日:2011-11-18

    Applicant: 微软公司

    CPC classification number: G06T13/40 G10L2021/105 H04L51/04 H04L51/10 H04L51/32

    Abstract: 本发明公开了用于富于表情的化身的实时动画。描述了用于为个性化的卡通化身提供实时动画的技术。在一个示例中,一过程基于语音和运动数据来训练一个或多个动画模型以提供一个或多个上身部分的概率运动集。该过程将表示情绪状态的一个或多个预定短语链接到一个或多个动画模型。在创建模型后,该过程接收实时语音输入。接着,该过程基于在上下文中与实时语音输入匹配的一个或多个预定短语来标识要表达的情绪状态。该过程然后响应于实时语音输入,通过应用一个或多个动画模型来生成一个或多个上身部分的运动的动画序列。

Patent Agency Ranking