一种具有意图理解功能的交互式智能容器

    公开(公告)号:CN110286835A

    公开(公告)日:2019-09-27

    申请号:CN201910548006.5

    申请日:2019-06-21

    Applicant: 济南大学

    Abstract: 本发明提出了一种具有意图理解功能的交互式智能容器,包括感知模块、识别模块、意图融合模块和交互应用模块;感知模块用于获取智能容器的触觉信息以及通过语音输入输出设备获取语音信息。识别模块用于将输入的触觉信息和语音信息表示成是三元组,然后将三元组和数据库信息进行比对得出五元组的输出;意图融合模块采用类比推理的方式,得到用户的准确意图,并纠正教学导航。交互应用模块根据用户的意图呈现不同的实验效果,本发明设计了一种具有意图理解功能的交互式智能容器,以及研究适用于化学实验的多模态融合模型与算法,形成多模态感知的导航式虚实融合智能实验系统。本发明采用触觉信息和语音信息的意图融合,使人机交互更加自然。

    一种基于手势的数字输入方法

    公开(公告)号:CN105204627A

    公开(公告)日:2015-12-30

    申请号:CN201510551014.7

    申请日:2015-09-01

    Applicant: 济南大学

    Inventor: 冯志全 冯仕昌

    Abstract: 本发明提供了一种基于手势的数字输入方法,属于计算机领域。该方法构造虚拟界面,所述虚拟界面是操作者手势操作区域,该虚拟界面能够随着操作者的身体位置或体态的变化而变化;通过一个虚拟界面逐次输入N个数字,或者通过生成N个虚拟界面,每个虚拟界面输入一个数字,这N个虚拟界面形成虚拟界面群;将显示屏幕定义为物理界面,操作者与物理界面之间的空间定义为物理空间;所述物理空间包括虚拟界面和非虚拟界面;操作者的手势只有在虚拟界面内才是有效的和能够感知的,在非虚拟界面内的手势是无效的;通过所述虚拟界面群输入数字。

    一种改变三维手势状态的方法

    公开(公告)号:CN104914996A

    公开(公告)日:2015-09-16

    申请号:CN201510267847.0

    申请日:2015-05-22

    Applicant: 济南大学

    Inventor: 冯志全 冯仕昌

    Abstract: 本发明提供了一种改变三维手势状态的方法,属于计算机视觉领域。所述方法包括:第1步:建立三维手势数据库;第2步:用户手势进入摄像机场景,识别出用户手势,从数据库中得到与用户手势对应的三维手势模型;第3步:首先计算用户手势的运动向量V,然后,计算机把与手势的运动向量V相反的向量-V施加于三维手势模型,使得该三维手势模型同时沿着与用户手势运动相反的方向运动;判断用户手势与三维手势模型是否相同,如果是,则进入第4步,如果否,则返回第3步;第4步:返回三维手势模型有关参数,即完成三维手势模型的初始化。

    一种智能实验容器及其使用方法

    公开(公告)号:CN110286765B

    公开(公告)日:2022-11-04

    申请号:CN201910544619.1

    申请日:2019-06-21

    Applicant: 济南大学

    Abstract: 本发明公开了一种智能实验容器及其使用方法,所述智能实验容器包括容器本体和控制模块,所述容器本体包括杯体,所述杯体外壁设置触摸传感器,所述杯体内侧设置摄像头、光源和流体物,所述摄像头和光源设置在杯体顶部,流体物设置在杯体底部;所述控制模块包括视觉模块、听觉模块、触觉模块和信息融合模块。通过信息融合模块处理获取的视觉、听觉或触觉信息,构建并执行完整的用户行为。本发明通过信息互补和信息独立两种融合策略,更加准确理解用户意图,实现自然的人机交互,可以及时纠正用户的错误操作,并通过语音合成模块引导其进行正确的实验操作。

    一种智能实验容器及其使用方法

    公开(公告)号:CN110286765A

    公开(公告)日:2019-09-27

    申请号:CN201910544619.1

    申请日:2019-06-21

    Applicant: 济南大学

    Abstract: 本发明公开了一种智能实验容器及其使用方法,所述智能实验容器包括容器本体和控制模块,所述容器本体包括杯体,所述杯体外壁设置触摸传感器,所述杯体内侧设置摄像头、光源和流体物,所述摄像头和光源设置在杯体顶部,流体物设置在杯体底部;所述控制模块包括视觉模块、听觉模块、触觉模块和信息融合模块。通过信息融合模块处理获取的视觉、听觉或触觉信息,构建并执行完整的用户行为。本发明通过信息互补和信息独立两种融合策略,更加准确理解用户意图,实现自然的人机交互,可以及时纠正用户的错误操作,并通过语音合成模块引导其进行正确的实验操作。

    一种多模态融合实验系统及其使用方法

    公开(公告)号:CN110286764A

    公开(公告)日:2019-09-27

    申请号:CN201910544618.7

    申请日:2019-06-21

    Applicant: 济南大学

    Abstract: 本发明公开了一种多模态融合实验系统,包括实验仪器、输入模块、多模态意图融合模块、输出模块和报警模块;所述输入模块包括设置在实验仪器上的触觉感知模块、听觉感知模块和视觉感知模块,用于获取用户的触觉、语音、视觉信息;所述多模态意图融合模块用于融合用户的触觉、语音、视觉信息,通过查询数据库和知识库分析用户意图,建立行为节点,判断用户行为是否正确规范;所述报警模块用于提示用户操作错误;所述输出模块用于输出显示用户行为对应的实验操作效果。还公开了上述系统的使用方法,通过多模态信息的融合进行用户意图的分析和感知,解决了单一模态无法完整理解用户意图的问题,达到与用户进行互动的效果。

    一种异常手势的识别与处理方法

    公开(公告)号:CN109886164A

    公开(公告)日:2019-06-14

    申请号:CN201910094426.0

    申请日:2019-01-30

    Applicant: 济南大学

    Abstract: 本发明提供了一种异常手势的识别与处理方法,包括:通过kinect获取人手深度图像;将[0,n/2]、[n/2,n]帧内的每一帧手势图像作CNN模型的正向传播,提取特征图像,对特征图像中的像素点进行聚类,获取第一特征值、第二特征值;利用RNN无监督学习深度网络,比较第一特征值与第二特征值的相似性;对神经网络分类后的手势图像进行正向特征提取,获取第一特征向量,将[0,n/2]帧和[n/2,n]帧进行融合,获取第二特征向量;对第一特征向量和第二特征向量进行误差逆向传播算法训练;反复迭代,得到最大相似手势。本发明解决了现有技术中对于手势的识别容易出现无法识别或者识别错误的异常问题,实现提高对异常手势的识别准确度,提升用户体验。

    基于多手势与语义之间柔性映射的手势操控方法

    公开(公告)号:CN105138949A

    公开(公告)日:2015-12-09

    申请号:CN201510394354.3

    申请日:2015-07-07

    Applicant: 济南大学

    Inventor: 冯志全 冯仕昌

    CPC classification number: G06K9/00355

    Abstract: 本发明提供了一种基于多手势与语义之间柔性映射的手势操控方法,首先筛选出操作者可能的交互意图,再结合交互上下文信息,进一步把操作者的手势语义压缩到更小的语义集合。其次,利用SSFBM特征,找到替代手势,进一步锁定操作者手势语义。本发明的有益效果是:能够实现多个手势表达一个语义,减少了需要定义的手势命令数量,从而让用户不记忆或尽量少记忆手势命令就可以完成手势命令交互,可以自然地完成交互任务而不受记忆大量手势命令的困扰,不会因为操作者的误操作而中断从而影响交互的流畅性,极大减轻了给用户带来的认知负荷和操作负荷。

    一种基于视频输入的获取隔空手势轨迹的方法

    公开(公告)号:CN104881119A

    公开(公告)日:2015-09-02

    申请号:CN201510279504.6

    申请日:2015-05-27

    Applicant: 济南大学

    Inventor: 冯志全 冯仕昌

    Abstract: 本发明提供了一种基于视频输入的获取隔空手势轨迹的方法,属于计算机人机交互界面领域。所述方法包括:(1)输入总帧数m,用摄像头捕获n帧图像的数字序列,并且放到n帧摄像头捕获的图像数据pBG Buffer[n]中;(2)获取对应手势运动轨迹的白点的坐标集合白点数;(3)获取每一帧手势的坐标值X,Y;(4)判断帧数n>=m,如果是,则根据(2)利用B样条画出轨迹,然后转入步骤(5);否则,返回到(1)继续执行;(5)结束。

    一种图像处理方法
    30.
    发明公开

    公开(公告)号:CN104850233A

    公开(公告)日:2015-08-19

    申请号:CN201510279425.5

    申请日:2015-05-27

    Applicant: 济南大学

    Inventor: 冯志全 冯仕昌

    Abstract: 本发明提供了一种图像处理,属于计算机人机交互界面领域。该方法包括:(1)利用摄像头输入用户手势图像,设定窗口尺寸,将脸部框出来并保存脸框的信息,即脸框的左上角的位置、高和宽;(2)根据步骤(1)保存的脸框的左上角的位置、高和宽,将窗口中的脸框位置的图像置成背景色;(3)通过肤色模型判断肤色点和非肤色点;(4)根据所述脸框在窗口中的信息,依次扫描窗口,分别找出脸框的像素点对应的小窗口;(5)对小窗口进行去噪,消除非肤色的影响;(6)获取所述小窗口的质心;(7)根据质心和小窗口的信息,得到这个小窗口的正方小窗口的半边长;(8)再次缩小小窗口:根据步骤(7)得到的正方小窗口的半边长,获得新的正方小窗口。

Patent Agency Ranking