-
公开(公告)号:CN102566756A
公开(公告)日:2012-07-11
申请号:CN201110443987.0
申请日:2011-12-15
Applicant: 微软公司
IPC: G06F3/01
CPC classification number: G06F3/013 , G02B27/017 , G02B2027/014 , G02B2027/0178 , G02B2027/0187 , G06F3/017 , H04N21/25891 , H04N21/47205 , H04N21/4725
Abstract: 本发明涉及用于扩展现实显示的基于理解力和意图的内容。在使用诸如透视显示设备或头戴式显示设备的近眼显示设备时增强用户体验的方法和系统。确定用户与该场景中一个或多个物体进行交互的意图。在一个实施例中,基于用户的意图来为用户生成经优化的图像。经优化的图像视觉上增强场景中用户打算与之进行交互的物体的外观,并缩小场景中用户不打算与之进行交互的物体的外观。在另一个实施例中,通过自动地增强用户环境中的一个或多个物体来提高用户对用户环境中可视化信息的理解力。生成包括提高用户理解力的物体的经优化的图像。经优化的图像视觉上增强提高用户的理解力的物体的外观。经优化的图像经由透视显示设备显示给用户。
-
公开(公告)号:CN102572539A
公开(公告)日:2012-07-11
申请号:CN201110371508.9
申请日:2011-11-11
Applicant: 微软公司
IPC: H04N21/258
CPC classification number: H04N21/4223 , H04N21/44213 , H04N21/44218 , H04N21/6582
Abstract: 本发明涉及对多媒体内容的被动和匿名反馈。公开了用于生成对用户所观看的多媒体内容流的被动和匿名反馈的系统。多媒体内容可包括录制的视频内容、视频点播内容、电视内容、电视节目、公告、广告片、音乐、电影、视频剪辑,及其他点播媒体内容。标识连接到计算设备的捕捉设备的视野内的一个或多个用户。通过跟踪用户所表现的移动、手势、姿势和面部表情来确定对用户所观看的多媒体内容的用户的参与度水平。基于用户所表现的移动、手势、姿势和面部表情来生成对所观看的多媒体内容的响应报告。报告被提供给评级机构、内容提供方和广告客户。在一个实施例中,基于报告从内容提供方和广告客户接收与所观看的多媒体内容相关的预览内容和个性化内容。预览内容和个性化内容被显示给用户。
-
公开(公告)号:CN102541257A
公开(公告)日:2012-07-04
申请号:CN201110378076.4
申请日:2011-11-14
Applicant: 微软公司
CPC classification number: G06Q30/02 , G06Q30/06 , G06Q30/0631 , H04N21/42203 , H04N21/4223 , H04N21/441 , H04N21/44218 , H04N21/4532 , H04N21/4661 , H04N21/4667 , H04N21/4668
Abstract: 本发明涉及基于观众的内容呈现和定制。公开了一种用于递送为特定用户或与系统交互的用户定制的内容的系统和方法。该系统包括一个或多个用于识别用户的身份的模块。这些模块例如可以包括姿势识别引擎、面部识别引擎、肢体语言识别引擎和语音识别引擎。用户还可以携带诸如智能电话之类的移动设备,该移动设备标识出该用户。这些模块中的一个或多个可以协作以标识出用户,并且然后基于用户的身份定制用户的内容。具体而言,该系统接收用户偏好,该用户偏好指示用户希望接收的内容以及接收内容的条件。基于用户偏好和对用户身份和/其他特征的识别,该系统呈现为特定用户定制的内容。
-
公开(公告)号:CN102289564B
公开(公告)日:2015-05-20
申请号:CN201110161330.5
申请日:2011-06-02
Applicant: 微软公司
IPC: G06F19/00
CPC classification number: A63F13/63 , A63F13/213 , A63F13/215 , A63F2300/1018 , A63F2300/1087 , A63F2300/6072 , A63F2300/6081
Abstract: 本发明公开了用于合成从聚焦于单个场景的多个音频和可视源接收到的信息的系统和方法。该系统可以基于在捕捉设备的图像数据中标识的共同的线索集合来确定捕捉设备的位置。由于场景常常可以具有移进移出场景的用户和对象,可以使来自多个捕捉设备的数据在时间上同步,以确保来自音频和可视源的数据在相同时间提供同一场景的数据。可以一起协调和吸收来自多个源的音频和/或可视数据,以改进系统的从场景解释音频和/或可视方面的能力。
-
公开(公告)号:CN102591922A
公开(公告)日:2012-07-18
申请号:CN201110428547.8
申请日:2011-12-19
Applicant: 微软公司
IPC: G06F17/30
CPC classification number: G06F16/489 , G06F16/907 , G06F16/9535
Abstract: 本发明公开了用于数字内容的粒度元数据。因此,本讨论在一个方面涉及一种将元数据与数字内容项目相关联并且随后根据元数据关联的控制/约束来控制该项目的呈现的方法。该方法可包括确定数字内容项目中用户期望将其与元数据项相关联的时间专用部分;将该元数据项与数字内容项目的该时间专用部分相关联。在该用户或另一人对数字内容项目的后续消费期间,元数据项连同数字内容项目的时间专用部分被同步呈现,其中这样的呈现是响应于通过社交网络实现的用户控制的过滤器来约束或控制的。
-
公开(公告)号:CN102448561B
公开(公告)日:2013-07-10
申请号:CN201080024659.0
申请日:2010-05-25
Applicant: 微软公司
CPC classification number: G06K9/00342 , G06F3/017 , G06F19/00 , G06F19/3481 , G09B19/0038
Abstract: 捕捉设备可以捕捉用户的运动并且显示设备可以显示映射到用户的运动(包括适用于控制的姿势)的模型。用户可能不熟悉映射用户的运动的系统或不知道什么姿势适用于正在执行的应用。用户可能不了解或不知道如何执行适用于正在执行的应用的姿势。可以分析与姿势相对应的用户运动数据和/或过滤器的输出以确定给用户的有关执行姿势的帮助是适合的那些情形。
-
公开(公告)号:CN102596340A
公开(公告)日:2012-07-18
申请号:CN201080024686.8
申请日:2010-05-22
Applicant: 微软公司
CPC classification number: A63F13/213 , A63F13/428 , A63F13/57 , A63F2300/1087 , A63F2300/6607 , A63F2300/69 , A63F2300/8005 , A63F2300/8011 , G06F3/017 , G06K9/00342 , G06T7/20 , G06T7/251 , G06T13/40 , G06T13/80 , G06T2207/10016 , G06T2207/10028 , G06T2207/30196
Abstract: 可使用用户的现场运动和预先记录的运动来动画化一诸如屏幕上对象、化身、屏幕上角色等虚拟角色。例如,可捕捉用户的现场运动,并且可接收预先记录的运动,诸如预先记录的艺术家生成的运动、用户的预先记录的运动、和/或被程序控制的转换。现场运动接着可被应用到虚拟角色的第一部分,而预先记录的运动可被应用到该虚拟角色的第二部分,使得该虚拟角色可用现场运动和预先记录的运动的组合来动画化。
-
公开(公告)号:CN102449576A
公开(公告)日:2012-05-09
申请号:CN201080024687.2
申请日:2010-05-29
Applicant: 微软公司
CPC classification number: G06F3/017 , G06F3/038 , G06F3/0488 , G06F3/04883
Abstract: 公开了用于姿势快捷方式的系统、方法和计算机可读介质。用户的移动或身体位置被系统的捕捉设备捕捉,并用作控制系统的输入。对于系统识别的姿势,可能有姿势的完全版本和姿势的快捷方式。在系统识别出姿势的完全版本或者姿势的快捷方式已被执行时,系统向相应的应用发送该系统识别的姿势被观察到的指示。在快捷方式包括姿势的完全版本的子集、并且当用户执行姿势的完全版本时姿势的快捷方式和完全版本都被识别的情况下,系统识别出仅已发生姿势的单个执行,并向应用如此指示。
-
公开(公告)号:CN102448561A
公开(公告)日:2012-05-09
申请号:CN201080024659.0
申请日:2010-05-25
Applicant: 微软公司
CPC classification number: G06K9/00342 , G06F3/017 , G06F19/00 , G06F19/3481 , G09B19/0038
Abstract: 捕捉设备可以捕捉用户的运动并且显示设备可以显示映射到用户的运动(包括适用于控制的姿势)的模型。用户可能不熟悉映射用户的运动的系统或不知道什么姿势适用于正在执行的应用。用户可能不了解或不知道如何执行适用于正在执行的应用的姿势。可以分析与姿势相对应的用户运动数据和/或过滤器的输出以确定给用户的有关执行姿势的帮助是适合的那些情形。
-
公开(公告)号:CN102289564A
公开(公告)日:2011-12-21
申请号:CN201110161330.5
申请日:2011-06-02
Applicant: 微软公司
IPC: G06F19/00
CPC classification number: A63F13/63 , A63F13/213 , A63F13/215 , A63F2300/1018 , A63F2300/1087 , A63F2300/6072 , A63F2300/6081
Abstract: 公开了用于合成从聚焦于单个场景的多个音频和可视源接收到的信息的系统和方法。该系统可以基于在捕捉设备的图像数据中标识的共同的线索集合来确定捕捉设备的位置。由于场景常常可以具有移进移出场景的用户和对象,可以使来自多个捕捉设备的数据在时间上同步,以确保来自音频和可视源的数据在相同时间提供同一场景的数据。可以一起协调和吸收来自多个源的音频和/或可视数据,以改进系统的从场景解释音频和/或可视方面的能力。
-
-
-
-
-
-
-
-
-