-
公开(公告)号:CN106205635A
公开(公告)日:2016-12-07
申请号:CN201610546522.0
申请日:2016-07-13
Applicant: 中南大学
IPC: G10L25/60 , G10L25/24 , G10L21/0232
CPC classification number: G10L25/60 , G10L21/0232 , G10L25/24
Abstract: 本发明公开了一种语音处理方法及系统,以实现语音的在线测试。执行于手机客户端的语音处理方法包括:获取用户的语音测试请求;根据所述语音测试请求输出一段文字显示在屏幕上,供用户朗读,并记录该段文字的系统编号;采集用户朗读该段文字的音频信息;对所述采集的音频信息进行模数转换及降噪处理;提取降噪处理后测试语音特征值,并将该测试语音特征值连同系统编号发送给远程服务器端。
-
公开(公告)号:CN106644090A
公开(公告)日:2017-05-10
申请号:CN201611245992.X
申请日:2016-12-29
Applicant: 中南大学
IPC: G01J5/00
Abstract: 本发明目的在于提供一种基于kinect的求职仪态测试方法及其系统,以解决现有仪态检测存在主观性、随意性和局限性的现有技术问题。本发明提取kinect采集空间定位信息中左肩节点、右肩节点、躯干节点、头部节点、颈部节点、左手节点、右手节点、左腿跟节点和右腿跟节点的坐标值以及人脸识别信息中眼部信息的特征值和鼻子信息特征值;根据采集的节点坐标计算平面内斜率来判断头部状态,根据左手节点、右手节点、左肩节点和右肩节点的坐标来计算手臂状态,通过左腿跟节点和右腿跟节点的坐标来判断双脚状态;根据眼部信息的特征值判断眼睛状态;综合眼睛状态、上身状态、头部状态、手臂状态和双脚状态给出仪态测试结果。
-
公开(公告)号:CN106600702A
公开(公告)日:2017-04-26
申请号:CN201611040340.2
申请日:2016-11-23
Applicant: 中南大学
CPC classification number: G06T19/006 , G06T17/00
Abstract: 本发明公开了一种基于虚拟现实技术的图像处理设备,包括客户端和服务器端。客户端用于接收用户的着装建议请求;根据该请求建立与服务器端的连接,并打开摄像头采集用户全身图像;将着装建议和所采集的图像发送给服务器端;将服务器端反馈的有着装建议的可交互的三维环境输出显示。服务器端,运行工作于远程终端,用于建立与客户端的远程连接,获取客户端的着装建议请求和采集图像,提取采集图像的全身轮廓特征、面部轮廓特征及服饰颜色分布特征,通过K‑means统计向量方法获取与该形体特征、面部轮廓特征及服饰颜色分布特征对应的指导模型,将指导模型经VR处理形成有着装建议的可交互的三维环境,将有着装建议的可交互的三维环境返回客户端。
-
公开(公告)号:CN106204223A
公开(公告)日:2016-12-07
申请号:CN201610549474.0
申请日:2016-07-13
Applicant: 中南大学
CPC classification number: G06Q30/0621 , G06K9/6223 , G06K9/629
Abstract: 本发明公开了一种图像处理方法及系统,以在线给出用户的着装建议。该系统包括:客户端,用于获取用户的着装建议请求,根据着装建议请求建立与远程服务器的连接,并打开摄像头采集用户的全身图像,将着装建议请求连同所采集图像发送给远程服务器,以及将远程服务器反馈的着装建议结果显示输出;服务器端,用于建立与客户端的远程连接,获取客户端的着装建议请求和采集图像,提取采集图像的全身轮廓特征、面部轮廓特征及服饰颜色分布特征,通过K-means统计向量方法获取与该形体特征、面部轮廓特征及服饰颜色分布特征对应的指导模型,以及根据该指导模型向客户端返回着装建议结果。
-
公开(公告)号:CN106202933A
公开(公告)日:2016-12-07
申请号:CN201610548025.4
申请日:2016-07-13
Applicant: 中南大学
Abstract: 本发明公开了一种提高心率监测准确性的方法及系统,以便捷准确的监测心率。执行于移动客户端的该方法包括:获取用户的心率监测请求;根据所述心率监测请求输出一套心理测试题显示在屏幕上,供用户回答,并记录该套测试题的系统编号;通过与所述移动客户端蓝牙连接的可穿戴设备采集用户处理该套测试题的心率信息;对所述采集的心率信息进行降噪处理和数据归一化;将归一化处理后的测试心率特征值连同系统编号及答题结果发送给远程服务器端。
-
公开(公告)号:CN106644090B
公开(公告)日:2020-05-22
申请号:CN201611245992.X
申请日:2016-12-29
Applicant: 中南大学
IPC: G01J5/00
Abstract: 本发明目的在于提供一种基于kinect的求职仪态测试方法及其系统,以解决现有仪态检测存在主观性、随意性和局限性的现有技术问题。本发明提取kinect采集空间定位信息中左肩节点、右肩节点、躯干节点、头部节点、颈部节点、左手节点、右手节点、左腿跟节点和右腿跟节点的坐标值以及人脸识别信息中眼部信息的特征值和鼻子信息特征值;根据采集的节点坐标计算平面内斜率来判断头部状态,根据左手节点、右手节点、左肩节点和右肩节点的坐标来计算手臂状态,通过左腿跟节点和右腿跟节点的坐标来判断双脚状态;根据眼部信息的特征值判断眼睛状态;综合眼睛状态、上身状态、头部状态、手臂状态和双脚状态给出仪态测试结果。
-
公开(公告)号:CN106204223B
公开(公告)日:2017-10-31
申请号:CN201610549474.0
申请日:2016-07-13
Applicant: 中南大学
IPC: G06Q30/06
Abstract: 本发明公开了一种图像处理方法及系统,以在线给出用户的着装建议。该系统包括:客户端,用于获取用户的着装建议请求,根据着装建议请求建立与远程服务器的连接,并打开摄像头采集用户的全身图像,将着装建议请求连同所采集图像发送给远程服务器,以及将远程服务器反馈的着装建议结果显示输出;服务器端,用于建立与客户端的远程连接,获取客户端的着装建议请求和采集图像,提取采集图像的全身轮廓特征、面部轮廓特征及服饰颜色分布特征,通过K‑means统计向量方法获取与该全身轮廓特征、面部轮廓特征及服饰颜色分布特征对应的指导模型,以及根据该指导模型向客户端返回着装建议结果。
-
公开(公告)号:CN106851093A
公开(公告)日:2017-06-13
申请号:CN201611260463.7
申请日:2016-12-30
Applicant: 中南大学
CPC classification number: H04N5/232 , G06K9/00302 , G09B5/02 , H04L67/42
Abstract: 本发明公开了一种微笑评分方法及其系统,以解决传统微笑检测方法存在主观性、随意性和局限性的不足。执行于客户端的方法包括:获取用户的微笑评分请求;根据微笑评分请求建立与服务器端的连接,打开摄像头采集用户的面部图像并提取采集的面部图像成二维数组形式;将微笑评分请求连同二维数组发送给服务器端;将服务器端反馈的微笑评分结果以及相应的指导性建议显示输出;获取用户选择的练习请求;根据用户选择的练习请求进入练习模式供用户练习。执行于服务器端的方法包括:获取客户端的微笑评分请求和二维数组;将二维数组转化为微笑检测参数,通过微笑检测参数计算微笑评分结果;将微笑评分结果以及相应的指导性建议返回至客户端。
-
公开(公告)号:CN106683150A
公开(公告)日:2017-05-17
申请号:CN201611258758.0
申请日:2016-12-30
Applicant: 中南大学
Abstract: 本发明涉及计算机技术领域,公开了一种试衣镜系统及其数据处理方法,以供用户在网购中看到实在的试衣效果。本发明公开的数据处理方法包括:通过摄像头采集用户图像;获取所述用户选定的服装信息;将所述用户所选定的服装图像进行缩放处理,叠加在所述用户图像图层的相应位置之上,合成试衣镜图像,并将所合成的试衣镜图像通过终端的显示窗口显示给用户观测。本发明合成的试衣镜图像能使得用户在网购中看到实实在在的试衣效果,以确保用户简单快捷得筛选出符合自身的服装,极大提高了用户体验,并大力节约了相关的社会成本。
-
-
-
-
-
-
-
-