-
公开(公告)号:CN102591648A
公开(公告)日:2012-07-18
申请号:CN201110443210.4
申请日:2011-12-14
Applicant: 微软公司
IPC: G06F9/44
CPC classification number: A63F13/428 , A63F13/06 , A63F13/213 , A63F2300/1093 , A63F2300/308 , A63F2300/6045 , G06F3/017 , G06F3/04817 , G06F3/0482
Abstract: 本发明涉及用于界面引导的持久性把手。一种计算系统将人类目标的手的世界空间位置转换为用户界面的屏幕空间位置,并且如果手的世界空间参数克服用户界面的把手的抓取阈值则将手锁定至该把手。当手被锁定至该把手时,该计算系统将手的世界空间位置转换为被约束沿一个或多个界面引导的屏幕空间把手位置。如果手的世界空间参数克服把手的释放阈值则在把手的释放位置将手从该把手解锁。在手从把手被解锁之后该把手被保持在该释放位置。
-
公开(公告)号:CN102834800A
公开(公告)日:2012-12-19
申请号:CN201180017286.9
申请日:2011-03-30
Applicant: 微软公司
IPC: G06F3/14
Abstract: 在此描述了媒体消费的概要呈现。一种用于生成个人精彩片段卷的示例性方法包括:接收个人消费数据,所述个人消费数据指示被用户计算设备消费的一个或多个媒体单元;以及与用户标识符相关联地存储所述个人消费数据。该方法还包括:基于个人消费数据标识出一个或多个相关个人媒体单元。该方法还包括:生成个人精彩片段卷,所述个人精彩片段卷包括表示一个或多个相关个人媒体单元的一个或多个个人媒体事件;以及输出所述个人精彩片段卷。
-
-
公开(公告)号:CN102207771A
公开(公告)日:2011-10-05
申请号:CN201110128898.7
申请日:2011-05-11
Applicant: 微软公司
CPC classification number: A63F13/213 , A63F13/655 , A63F13/67 , A63F2300/1087 , A63F2300/6027 , G06F3/011 , G06K9/00335
Abstract: 本发明涉及推断参与运动捕捉系统的用户意图。提供了用于推断用户的与运动捕捉系统所运行的应用交互的意图的技术。消除了与运动捕捉系统交互的蓄意的用户姿势和系统的视野内的无关的用户运动的歧义。可使用算法来确定用户的参与系统的聚集等级的意图。算法中的参数可包括用户身体的姿态和运动,以及系统的状态。该系统可形成骨架模型来确定各种参数。如果系统确定参数强烈地指示出参与系统的意图,则系统可快速反应。然而,如果参数仅仅微弱地指示出参与系统的意图,则用户可能花费更长时间来参与系统。
-
公开(公告)号:CN102262438A
公开(公告)日:2011-11-30
申请号:CN201110138178.9
申请日:2011-05-17
Applicant: 微软公司
IPC: G06F3/01
Abstract: 提供了用于操纵用户界面的姿势和姿势识别。提供了象征性姿势及相关联的识别技术用于控制例如通用计算系统或多媒体控制台的操作系统所提供的系统用户界面之类的系统用户界面。在半空中的象征性姿势移动是由用户利用或无需输入设备的帮助而执行的。提供了捕捉设备来为包括人类目标的捕捉区域的三维表示生成深度图像。使用骨架映射来跟踪人类目标以捕捉用户的半空中运动。骨架映射数据被用于使用姿势过滤器来标识对应于预定义的姿势的移动,姿势过滤器提出了用于确定目标的移动何时指示出可行姿势的参数。当检测到姿势时,执行一个或多个预定义的用户界面控制动作。
-
-
-
-