-
公开(公告)号:CN109333544A
公开(公告)日:2019-02-15
申请号:CN201811055538.7
申请日:2018-09-11
Applicant: 厦门大学
IPC: B25J11/00
Abstract: 本发明提供一种观众参与的提线木偶表演的人偶交互方法,包括:1、初始化;2、预设主线控制指令;3、执行主线控制指令;4、判断主线控制指令是否执行完毕;5、判断Kinect识别范围是否有人;6、进入互动模式,识别用户的手势和声音,判断用户的手势和声音与规范化的手势和声音是否匹配,若完全不匹配,则进入步骤3;若匹配,则识别其匹配程度,根据不同的匹配程度激活不同的辅线控制指令;7、执行辅线控制指令;8、判断辅线控制指令是否执行完毕。本发明当观众进入交互设备Kinect的识别范围,系统将由预设的主线剧情表演进入互动模式,舞美、声音、提线木偶都受观众控制,达到观众参与表演的效果。
-
公开(公告)号:CN105575201A
公开(公告)日:2016-05-11
申请号:CN201510979669.4
申请日:2015-12-24
Applicant: 趣游(厦门)科技有限公司 , 厦门大学
Abstract: 基于移动云服务的教育游戏平台,涉及移动云服务。包括前台系统、后台系统、社区系统和移动端;所述前台系统包括游戏收藏模块、个人信息模块、消息通知模块、学生管理模块、孩子管理模块、好友私信模块、好友管理模块;所述后台系统包括题库、教学管理模块、荣誉管理模块、消息管理模块、游戏管理模块、积分管理模块、用户管理模块和物品管理模块;所述社区模块用于用户进入社区后进行游戏、聊天、好友管理、信箱管理、游戏收藏管理、留言管理等;所述移动端包括课堂模块、好友动态模块、公告模块、私信模块、写信模块、设置模块和游戏模块。提供一个游戏定制、发布、共享、成绩分析统计的平台系统。
-
公开(公告)号:CN116687407A
公开(公告)日:2023-09-05
申请号:CN202310646532.1
申请日:2023-06-02
Applicant: 北京理工大学 , 厦门大学 , 福州一起教育科技有限公司 , 兰州大学
IPC: A61B5/16 , A47B37/00 , A47B97/00 , A61B5/00 , A61B3/14 , G06V10/764 , G06V20/40 , G06V40/18 , G06V10/82 , G16H50/30 , G16H50/20
Abstract: 本申请提供一种基于共同关注能力的心理状态筛查分类方法及系统,所述方法可以在获取到眼动图像和人像视频后,根据人像视频和眼动图像生成眼动信息,并从眼动信息中提取眼动特征,将眼动特征输入训练好的筛查模型中,进而得到分类结果。其中,眼动图像和人像视频为用户根据交互指令执行测试动作时拍摄获得的图像和视频,交互指令用于引导用户观看目标区域。所述方法从眼动行为层面进行用户心理状态的筛查,更客观、全面的评估用户的心理状态,降低漏检率和误检率,提高筛查精度和效率。
-
公开(公告)号:CN112192585B
公开(公告)日:2022-02-15
申请号:CN202011089702.3
申请日:2020-10-13
Applicant: 厦门大学
IPC: B25J11/00
Abstract: 一种面向掌中木偶表演机器人的交互表演方法和系统。所述方法包括:体感数据采集步骤;机器人状态决策步骤;机器人动作计算步骤;交互表演步骤。本发明可突破人力限制,完成枯燥动作的助演;支持实时互动表演的功能,适用于展示、教学等多个互动场景;分析真实表演的运动规律,解构表演动作与形态,使编排设计更合理,具备实时智能分析用户动作的功能,使用户的体验更有沉浸感和参与感,还可以加入其他多媒体技术,控制程序可以统筹其他部分,具有可扩展性。
-
公开(公告)号:CN109002857B
公开(公告)日:2020-12-29
申请号:CN201810812471.0
申请日:2018-07-23
Applicant: 厦门大学
IPC: G06K9/62 , H04N21/466
Abstract: 本发明提供一种基于深度学习的视频风格变换与自动生成方法,利用深度学习框架对拍摄主体进行分类以及风格模型训练;获取待处理视频和用户视频需求;识别待处理视频的类别,结合用户风格要求和时长要求,推荐最优分镜数和视频素材;根据用户选取的视频素材和视频素材顺序,渲染器自动结合对应的风格处理参数对视频进行片段渲染和整体渲染生成风格视频;之后,将用户调整修改信息,作为反馈信息优化风格模型,并分析用户喜好,优化深度学习框架,形成反馈学习模型。本发明还提供一种基于深度学习的视频风格变换与自动生成系统,根据用户对视频风格的需求自动推荐风格素材,并自动完成对视频片段的风格渲染和对整体视频的渲染,生成特定风格视频。
-
公开(公告)号:CN111629269A
公开(公告)日:2020-09-04
申请号:CN202010452022.7
申请日:2020-05-25
Applicant: 厦门大学
IPC: H04N21/472 , H04N21/44 , H04N21/81
Abstract: 本发明提供了一种基于机械臂的移动端短视频广告自动拍摄与生成的方法或系统,所述方法包括:(1)用户交互确定视频风格及商品信息,系统结合视频脚本模型生成视频脚本;(2)系统规划机械臂运动路径规划进行自动拍摄,通过线框图交互引导用户布置场景;(3)基于显著性区域算法分析待剪辑视频,对其进行标签化处理。基于标签结合脚本对视频进行剪辑合成渲染。本发明开拓探索了短视频广告生成的人机共协新模式。显著提升短视频广告制作的效率,优化短视频广告的质量。
-
公开(公告)号:CN110012237B
公开(公告)日:2020-08-07
申请号:CN201910274605.2
申请日:2019-04-08
Applicant: 厦门大学
IPC: H04N5/262 , H04N5/222 , H04L29/08 , G06F16/71 , G06F16/73 , G06F16/735 , G06F16/738
Abstract: 本发明提供一种基于交互引导及云端增强渲染的视频生成方法,包括步骤S1、在客户端构建前端引导的多模式交互内容,根据多模式交互内容动态地引导用户进行视频拍摄;步骤S2、在云端对用户所拍摄的视频以及与视频相关联的素材进行增强渲染,从而生成完整的客制化视频。本发明还提供一种基于交互引导及云端增强渲染的视频生成系统,通过本发明的技术方案可有效解决现有用户在视频制作过程中存在的高门槛、高成本等问题。
-
公开(公告)号:CN109117952A
公开(公告)日:2019-01-01
申请号:CN201810813481.6
申请日:2018-07-23
Applicant: 厦门大学
IPC: G06N3/08
Abstract: 本发明提供一种基于深度学习的机器人情感认知的方法,包括:获取得到多模态信息,通过多模态信息融合算法得到情绪状态;将情绪状态输入到交互决策模型进行处理得到决策信息,将所述决策信息输出到满意度模型中;由满意度模型来检测交互决策模型输出的决策信息是否符合当前用户的喜好,若是,则进入到长期记忆中,进行数据更新,将获取到的决策信息输出给行为选择器得到机器人行为输出;否则,从短期记忆中获取记录的片段以及对应用户的情绪变化,并从长期记忆中提取用户特征,利用LSTM深度学习模型计算得出决策信息,将获取到的决策信息输出给行为选择器得到机器人行为输出。本发明通过交互决策模型,提高机器人认知能力,更好的进行人机交互。
-
-
公开(公告)号:CN108960191A
公开(公告)日:2018-12-07
申请号:CN201810813473.1
申请日:2018-07-23
Applicant: 厦门大学
CPC classification number: G06K9/00302 , G06K9/00369 , G06K9/00389 , G06K9/6288
Abstract: 本发明提供一种面向机器人的多模态融合情感计算方法,包括:获取得到多模态信息,通过实时捕捉与机器人交互的人的语言信息以及非语言信息;构建不同信息的处理通道进行特征分类与识别,包括语言信息和非语言信息的特征分类与识别;对多模态信息进行处理,通过PAD模型与OCC模型将信息映射到PAD三维空间上;对各个模态信息在决策层融合时进行时序对齐,进行基于时序的情感维度空间的计算。本发明还提供一种面向机器人的多模态融合情感计算系统,通过获取用户的多模态信息,包括非语言与语言信息,使用PAD模型、OCC模型,以及线性回归模型分别对语言信息和非语言信息进行融合之后,再使用线性回归模型进行最终融合,实现机器人更佳精确的情感计算。
-
-
-
-
-
-
-
-
-