一种悬浮式投影交互系统
    11.
    发明公开

    公开(公告)号:CN105867702A

    公开(公告)日:2016-08-17

    申请号:CN201610179114.6

    申请日:2016-03-25

    CPC classification number: G06F3/0425 G03B21/008

    Abstract: 本发明公开了一种悬浮式投影交互系统,由磁悬浮控制底座部分和悬浮交互投影部分两个组件构成,两个组件又分为磁悬浮模块、无线充电模块、交互触控模块、微型投影模块和核心控制板模块五个子系统。所述磁悬浮控制底座部分主要用于悬浮起上方悬浮交互投影部分,并为其无线传输电能,悬浮交互投影部分主要用于多角度投影、网络通信和实现触控交互功能。本发明可有效解决当前微型投影易受振动影响,造成投影画面抖动、镜头无法自动调焦、投影区域无法自动梯形校正等问题,同时利用线性激光、摄像头和微型投影为使用者提供投影交互操作手段,从而呈现出一种全新的悬浮投影交互体验方式,让投影摆脱外界干扰,开辟悬浮微型投影交互市场应用新思路。

    基于层状目标侧面纹理分析的张数检测方法

    公开(公告)号:CN101763527B

    公开(公告)日:2012-12-12

    申请号:CN200910087353.9

    申请日:2009-06-17

    Inventor: 王欣刚 刘东昌

    Abstract: 本发明是一种基于层状目标侧面纹理分析张数的检测方法,处理步骤:对被测物体侧面纹理进行采样,采样后图像被输入到计算机中;将原始图像预处理后进行分段,得到子图像集合;取上述子图像集合中的一段子图像进行图像分割得到相应的前景纹理图像;把前景纹理图像投影或取样得到一维数组;分析该一维数组,得到子图像的张数估计值,将估计值保存待用;循环处理子图像集合中所有子图像得到一系列估计值;统计上述子图像的张数估计值,得到层状目标的张数。本发明将纹理分析引入到层状目标的张数检测中,巧妙应用Gabor滤波器进行纹理增强提高法的性能。本发明的分段处理,将原纹理图像分为许多段子图像,提高图像分割精度,增强检测的准确性。

    一种全息可视对讲交互系统

    公开(公告)号:CN106375704B

    公开(公告)日:2019-05-03

    申请号:CN201610949309.4

    申请日:2016-10-26

    Abstract: 本发明公开了一种全息可视对讲交互系统,由音像采集部分、图像处理部分、全息视频播放部分、交互设备部分和协调器部分组成。所述音像采集部分主要用于对讲过程中的声音、人体360°图像采集和传输;图像处理部分采用相应的算法对所采集的图像进行实时抠图处理、深度分析和全息视频图像的拼接合成;全息视频播放部分主要用于全息视频和声音的播放展示;交互设备部分主要用于交互双方动作的感知和命令动作的执行;协调器部分主要用于协调各个节点设备在系统中正常有序运行,为整个系统其保障作用。本发明提出一种全新的可视化对讲交互系统,视频对讲过程全部以全息形式呈现在使用者面前,改变以往单屏幕视频对讲模式。

    一种可用于非特定人的双目视觉图像合成装置与方法

    公开(公告)号:CN105893965A

    公开(公告)日:2016-08-24

    申请号:CN201610197497.X

    申请日:2016-03-31

    CPC classification number: G06K9/00255 G06K9/00926

    Abstract: 本发明提供一种可用于非特定人的双目视觉图像合成装置与方法,所述装置包括双目视觉采集模块、相机姿态调整模块、控制模块、人脸识别模块、人脸对齐模块、存储模块及图像合成模块,其中人脸识别模块捕获双目视觉采集模块所采集图像中的人脸信息,控制模块根据人脸在图像中的位置驱动相机姿态调整模块跟踪人脸,稳定后拍摄立体人脸图像,并将对齐后的立体人脸图像保存到存储模块中,最后通过图像合成模块将同一使用者在不同时间拍摄的立体人脸图像按时间顺序连续播放。本发明使用双目摄像头拍摄立体人脸图像,通过长时间多次拍摄实现自动记录一个或多个使用者不同时期的面部图像,可用于个性化的成长记录或个人档案。

    学习状态分析方法、电子设备、存储介质以及程序产品

    公开(公告)号:CN114359794A

    公开(公告)日:2022-04-15

    申请号:CN202111593316.2

    申请日:2021-12-23

    Abstract: 本发明提供一种学习状态分析方法、电子设备、存储介质以及程序产品,方法包括:获取目标对象在学习过程中的视频数据和状态数据;其中,状态数据包括目标对象的心跳数据、血氧数据、血压数据、坐姿压力数据中的至少一种;所述视频数据包括普通视频、深度视频、点云视频中的至少一种;将视频数据输入神经网络进行行为特征提取,得到行为数据;将行为数据和状态数据输入归一化指数函数,得到学习状态分析结果。本发明通过综合目标对象的学习过程中的视频数据和状态数据,实现对目标对象在线学习过程中的学习状态进行评估分析,提高对目标对象学习状态分析的准确性。

    一种基于多模态交互的远程用户注意力评估方法及系统

    公开(公告)号:CN110333774A

    公开(公告)日:2019-10-15

    申请号:CN201910213698.8

    申请日:2019-03-20

    Abstract: 本发明涉及远程教育领域,提出基于多模态交互的远程用户注意力评估方法,旨在解决远程教育中用户的实时学习状态难以得到监督,学习质量无法得到评估,极大影响用户的学习效果的问题,方法包括:通过信息采集模块获取待评价用户的多模态信息;根据上述多模态信息判断上述待评价用户是否为目标用户,如果不是目标用户,发送提示信息;如果为目标用户,向上述待评价用户发送指令信息,并接收上述待评价用户的响应信息;根据上述响应信息评价上述待评价用户的状态。实现了远程教育中对用户的实时学习状态的评估,以监督用户的学习。

Patent Agency Ranking