-
公开(公告)号:CN108564643A
公开(公告)日:2018-09-21
申请号:CN201810217937.2
申请日:2018-03-16
Applicant: 中国科学院自动化研究所
Abstract: 本发明涉及计算机图形处理领域,提出了一种基于UE引擎的表演捕捉系统,旨在解决在同时捕捉动作与表情数据,生成角色动作与表情动画中,表情表演与动作表演的干扰问题,该系统包括:面部表演捕捉单元,配置为获取目标对象的面部图像数据,并根据该面部图像数据,确定目标对象的眼球旋转参数,并利用预设的基础表情库确定该目标对象的基础表情权重;动作表演捕捉单元,配置为利用绑缚于目标对象肢体的传感设备获取该目标对象的动作参数;动画生成单元,配置为根据上述基础表情权重、上述眼球旋转参数和上述动作参数确定虚拟角色的表情动画。本发明实现了表演者动作和表情的捕捉,并根据动作和表情数据赋予虚拟角色真实合理的动作与生动的表情。
-
公开(公告)号:CN108109619A
公开(公告)日:2018-06-01
申请号:CN201711127669.7
申请日:2017-11-15
Applicant: 中国科学院自动化研究所
IPC: G10L15/22 , G10L19/00 , G10L21/0208 , G10L21/0272 , G10L25/30
Abstract: 本发明属于语音分离技术领域,具体涉及基于记忆和注意力模型的听觉选择方法和装置。旨在解决现有技术中监督标签的排列、说话人混叠数目不确定以及记忆单元维度固定的问题。本发明提供一种基于记忆和注意力模型的听觉选择方法,包括将原始语音信号编码为时频矩阵,对时频矩阵进行编码和变换,将其转化为语音向量,利用长时记忆单元存储说话人以及其对应的语音向量,获取目标说话人的语音向量,通过注意力选择模型从原始语音信号中分离出目标语音。本发明提供的方法能够不需要固定或者指定说话人的数目,从原始语音信号中分离出目标语音。
-
公开(公告)号:CN104916184B
公开(公告)日:2018-02-06
申请号:CN201510331391.X
申请日:2015-06-16
Applicant: 中国科学院自动化研究所 , 中国科学院浙江数字内容研究院
Abstract: 本发明公开一种面向术前培训的虚拟手术模拟训练系统及其训练方法,包括1个主节点和多个与主节点同步通讯连接的子节点,其中,所述主节点和子节点均包括力触觉交互装置、软组织削切仿真模块和真实感实时绘制模块,通过主力触觉交互装置、主软组织削切仿真模块和主真实感实时绘制模块记录主节点上培训的虚拟手术操作过程,实时地将医师的手术操作映射到各个子节点中,通过子节点上的子力触觉交互装置让受培训医生感受到手术过程。同时采用一种模型的差分编码算法,使各个子节点能够快速的得到三维手术模型。避免在病人身上训练高难度的手术,缩短受训医生的学习曲线和训练成本,促进手术软组织切割技术的普及和提高。
-
公开(公告)号:CN107315742A
公开(公告)日:2017-11-03
申请号:CN201710535661.8
申请日:2017-07-03
Applicant: 中国科学院自动化研究所
Abstract: 本发明提供了一种具有人机对话功能的拟人化口语翻译方法,其包括以下步骤:对源语言语音进行智能语音识别,得到源语言文本;对源语言文本以及对话场景进行处理,进行拟人化人机对话沟通;进行机器翻译,得到翻译结果。本发明还提供了一种具有人机对话功能的拟人化口语翻译系统。本发明根据翻译任务需要在必要时跟用户进行人机对话,确切地获得能够显著提升复杂应用场景下用户的翻译体验,并提高翻译语义的准确度。
-
公开(公告)号:CN104992582B
公开(公告)日:2017-08-15
申请号:CN201510406086.2
申请日:2015-07-13
Applicant: 中国科学院自动化研究所 , 中国科学院浙江数字内容研究院
IPC: G09B9/00
Abstract: 本发明公开一种基于混合现实的医学微创手术训练系统,包括主动端单元、视频图像采集及传输单元、视频图像接收及显示单元、从动端单元。主动端单元在进行虚拟的手术时,从动端单元可以实现与主动端同步及完全相同的操作,并且通过从动端的手柄可以感受的到主动端在进行手术时对手术器械的操控情况。通过视频图像采集及传输单元可以采集主动端人员的操作过程并传输到为从动端的显示器中,在从动端的受训人员可以一边感受主动端的手术器械操作情况,同时也可以观察主动端的操作者的整体操作过程。本发明的有益效果在于通过混合现实的手术过程,实现了真实感很强的医学微创手术的训练,为医院和医学院校提供了良好的训练平台。
-
公开(公告)号:CN103984738B
公开(公告)日:2017-05-24
申请号:CN201410218854.7
申请日:2014-05-22
Applicant: 中国科学院自动化研究所
Abstract: 本发明公开了一种基于搜索匹配的影视剧角色标注方法,该方法包括步骤:根据待标注对象列表,得到标注场景的待标注对象集合及所有待标注对象信息;为每位待标注对象构造文本关键词,利用图像搜索引擎获得相应的图像集合;在搜索结果图像上进行人脸检测和视觉属性分析,去除其中的噪声,得到待标注对象与标注场景密切相关的角色人脸集合;对标注场景进行人脸检测和跟踪,得到其中所有的人脸序列;基于人脸序列之间的视觉相似度,以及人脸序列与待标注对象角色人脸的视觉相似度分析,对标注场景进行角色标注。本发明利用互联网中关于影视剧角色的人脸图像进行影视剧角色标注,其有益效果在于:标注过程全自动、标注精度高、方法扩展性和普适性强。
-
公开(公告)号:CN102902355B
公开(公告)日:2015-12-02
申请号:CN201210320166.2
申请日:2012-08-31
Applicant: 中国科学院自动化研究所
IPC: G06F3/01
Abstract: 本发明公开了一种具有人机交互能力的移动设备的空间交互方法,包括如下步骤:根据移动设备实时拍摄的二维图像,重建关于该图像的深度图;对所述深度图进行区域分割,得到该深度图中的人体部位区域;将所述深度图中的人体部位区域映射到一个虚拟场景中;检测所述虚拟场景中的人体部位是否与该虚拟场景中的其他物体发生碰撞,若发生碰撞,则根据所述虚拟场景中的人体部位在时间上的空间变化来确定肢体语言,所述虚拟场景根据所述肢体做出响应。本发明能够提高空间交互的准确性和实时性。
-
公开(公告)号:CN104992582A
公开(公告)日:2015-10-21
申请号:CN201510406086.2
申请日:2015-07-13
Applicant: 中国科学院自动化研究所 , 中国科学院浙江数字内容研究院
IPC: G09B9/00
CPC classification number: G09B23/286
Abstract: 本发明公开一种基于混合现实的医学微创手术训练系统,包括主动端单元、视频图像采集及传输单元、视频图像接收及显示单元、从动端单元。主动端单元在进行虚拟的手术时,从动端单元可以实现与主动端同步及完全相同的操作,并且通过从动端的手柄可以感受的到主动端在进行手术时对手术器械的操控情况。通过视频图像采集及传输单元可以采集主动端人员的操作过程并传输到为从动端的显示器中,在从动端的受训人员可以一边感受主动端的手术器械操作情况,同时也可以观察主动端的操作者的整体操作过程。本发明的有益效果在于通过混合现实的手术过程,实现了真实感很强的医学微创手术的训练,为医院和医学院校提供了良好的训练平台。
-
公开(公告)号:CN103279982A
公开(公告)日:2013-09-04
申请号:CN201310196737.0
申请日:2013-05-24
Applicant: 中国科学院自动化研究所
Abstract: 本发明公开了一种鲁棒的快速高深度分辨率的散斑三维重建的方法,包括如下步骤:读入场景散斑图像;采用分块的方法,初步估计场景图像各区域的大约纵深值,对与所述参考图像库中的参考图像的相关值高于相关阈值的区域直接用该参考图像的深度值作为该区域的深度值;逐点计算场景图像中各点与所述参考图像库中的参考图像对应点的相关值,并获得最大相关值对应的最大相关参考图像上对应点及其多个邻域点的相关值以及所述多个邻域点的位移值;利用所述参考图像对应点及其多个邻域点的相关值以及所述多个邻域点的位移值进行横向插值和纵向插值,并融合插值结果,得到场景图像中所述各点的精确的深度值,进而得到鲁棒的高深度分辨率的三维重建结果。
-
公开(公告)号:CN103035243A
公开(公告)日:2013-04-10
申请号:CN201210551379.6
申请日:2012-12-18
Applicant: 中国科学院自动化研究所
IPC: G10L15/28
Abstract: 本发明公开了一种长语音连续识别及语音识别结果实时反馈的方法及系统。该方法包括:在识别网络中增加句尾结束点到识别起始点的扩展可能性;解码过程中,识别路径在扩展时既可以生成单一句子,也可以生成多个连续句子,通过声学和语言概率的整体寻优来分割大篇幅语音信号;定期对所有活跃节点的最优历史路径的共有部分进行检测;获得当前时刻已经固定下来的识别单词序列;将更新的局部识别结果实时反馈给用户;回收已经确定下来的识别部分对应的解码空间。利用本发明,不依赖于端点检测算法,即可实现长语音信号的连续、可持续识别,同时给用户更好的人机交互体验。
-
-
-
-
-
-
-
-
-