-
公开(公告)号:CN107115177A
公开(公告)日:2017-09-01
申请号:CN201710155559.5
申请日:2017-03-16
Applicant: 华南理工大学
CPC classification number: A61F9/045 , A61B5/1118 , A61B5/4806 , A61B5/6803 , A61M21/02 , A61M2021/0027 , A61M2021/0044 , G01D21/02 , G08C17/02 , H04M1/72525
Abstract: 本发明公开了一种基于声光失眠疗法的助眠眼罩系统及实现方法,包括可有助于睡眠的助眠眼罩、可检测环境数据的环境检测仪和安卓APP,助眠眼罩包括第一主控模块、电源模块、LED模块、音频模块、加速度传感器模块、第一蓝牙模块,环境检测仪包括第二主控模块、温湿度传感器模块、光照度传感器模块、空气质量传感器模块、负离子发生器模块、显示屏、第二蓝牙模块,安卓APP可控制助眠眼罩的音频模块,接收助眠眼罩的加速度数据和环境检测仪的环境数据并加以分析反馈。本发明可在长途旅行期间或睡前使用,消费者通过佩戴助眠眼罩并开启助眠功能,可达到放松及助眠效果,通过观察安卓APP上各项睡眠数据及环境指标可获取消费者的睡眠信息。
-
公开(公告)号:CN107007271A
公开(公告)日:2017-08-04
申请号:CN201710232203.7
申请日:2017-04-11
Applicant: 华南理工大学
IPC: A61B5/0205 , A61B5/0402 , A61B5/1455
Abstract: 本发明公开了一种基于Zigbee的便携式多功能健康监测护腕及监测方法,该护腕利用心电传感器采集佩戴者的心电信息,利用血氧体温传感器采集佩戴者的血氧浓度和体温信息,利用心率传感器采集佩戴者的心率信息,并用OLED屏幕显示心率图、血氧浓度和体温信息,从而使佩戴者不需要在医院厚重的设备的情况下,方便地对日常健康数据的监测;此外,护腕主体利用Zigbee主控板上的天线模块将采集的数据发送至无线接收端,无线接收端利用串口转USB模块将数据输入计算机,如果计算机配好环境便可以将数据上传云端,佩戴者者的医生可以通过连接对应服务器的移动设备观察佩戴者的健康状况,实现“云诊断”。
-
公开(公告)号:CN103426025B
公开(公告)日:2015-10-28
申请号:CN201310374178.8
申请日:2013-08-23
Applicant: 华南理工大学
Abstract: 本发明公开了一种基于智能手机平台的非接触式俯卧撑计数方法,通过使用摄像头跟踪的方法,使用户可在不接触手机的情况下或者在距离手机较远的情况下都能实现俯卧撑的计数。本发明使能进行俯卧撑计数的手机的条件变得宽松,且可以实现俯卧撑完成标准的人性化设置,同时可以制定更完善、更人性化、更高效的俯卧撑计划。
-
公开(公告)号:CN102750699B
公开(公告)日:2015-03-11
申请号:CN201210190993.4
申请日:2012-06-11
Applicant: 华南理工大学
IPC: G06T7/00
Abstract: 本发明公开了一种基于信息熵的图像置乱程度衡量方法。包括下列步骤:(1)获取图像;(2)对图像进行分块;(3)分别计算各个图像分块的信息熵;(4)求所有图像分块的信息熵方差;(5)将求得的图像分块信息熵方差代入最终的图像置乱程度衡量公式,即得到了图像的置乱程度。本发明提供的图像置乱程度判别依据,表达简洁,计算过程不需要原始图像的参与,能够有效地衡量图像的置乱程度,与人视觉的主观评价基本一致,同时具有对各种类型的图像置乱技术都适用的高泛化性,为图像置乱技术的选择提供了一个衡量标准。
-
公开(公告)号:CN118383744A
公开(公告)日:2024-07-26
申请号:CN202410475869.5
申请日:2024-04-19
Applicant: 华南理工大学
IPC: A61B5/0245 , A61B5/024 , A61B5/347 , A61B5/349 , A61B5/352 , A61B5/00 , G06F18/214 , G06F18/243 , G06F18/213
Abstract: 本发明涉及生理信号处理及状态识别技术,为一种基于心率变异性特征的运动监测系统及疲劳状态评估方法。其系统包括:心电数据获取模块;用于对心电信号进行滑动窗口切片的心电数据处理模块,获得的ECG数据切片包括完整切片与最小切片,完整切片用于提取频域特征与非线性域特征,最小切片用于提取时域特征;心率变异性特征提取模块,用于提取心率变异性特征,制作预测数据集;身体状态识别模块,用于对随机森林分类器进行预训练,以及根据预训练的随机森林分类器对预测数据集进行分类。本发明通过深度提取运动者的ECG心电信号中的HRV时域、频域与非线性域特征信息,获得基于心率变异性特征的身体状态数据,监测与评估更为科学和准确。
-
公开(公告)号:CN117909868A
公开(公告)日:2024-04-19
申请号:CN202410308932.6
申请日:2024-03-19
Applicant: 华南理工大学
IPC: G06F18/2415 , G06F18/10 , G06F18/2113 , G06F18/213 , G06F18/214 , G06N3/042 , G06N3/045 , G06N3/0464 , A61B5/369 , A61B5/00
Abstract: 本发明涉及脑电信号识别领域,为基于神经影像学先验的动态图卷积的脑电认知负荷分析方法及系统,其方法包括:原始脑电数据预处理、标签处理,构建留一受试者的跨被试数据集,搭建基于神经影像学先验的动态图卷积的脑电认知负荷分析模型,实现对脑电认知负荷的分析。在脑电认知负荷分析模型中,通过多尺度时空注意力空洞卷积模块,建模各个脑电通道和时间特征之间的重要性,提取与认知负荷相关的多尺度的特征信息;基于神经影像学先验初始化脑电电极的邻接矩阵;通过动态图卷积网络模块动态学习邻接矩阵,研究脑电认知负荷的内在连接,输出学习内在连接后的特征信息。本发明解决了脑电信号在跨被试应用中准确率低、泛化性差等问题。
-
公开(公告)号:CN117731248A
公开(公告)日:2024-03-22
申请号:CN202311599640.4
申请日:2023-11-28
Applicant: 华南理工大学
IPC: A61B5/0205
Abstract: 本发明提供了一种基于医学先验知识的心肺功能诊断系统,包括:运动态标定模块,选用定长的运动态标定数据作为网络的输入;指标级Token构建模块,使用多个不同大小的核对各模态数据进行多尺度的一维卷积运算,将不同模态通道的生理指标划分为不同Token;心肺系统级Token构建模块,把得到的指标级Token输入,通过屏蔽医学上不相关的元素构建带有心肺系统关系的Mask的通道注意力;心肺系统Transformer模块,将低级别指标特征分层迭代更新得到高级别系统特征。本发明通过引入运动心肺测试过程中涉及的心肺系统相关医学先验知识,进一步在深层维度上对浅层特征的关键部分进行加强,从而使所提出的网络模型实现了比最先进的基线更准确的预测结果,并增强了模型的可解释性。
-
公开(公告)号:CN117672487A
公开(公告)日:2024-03-08
申请号:CN202311710279.8
申请日:2023-12-13
Applicant: 华南理工大学
IPC: G16H40/63 , A61B5/0205 , G16H50/30 , G16H50/70 , G06N3/0442 , G06N5/04
Abstract: 本发明提供了一种用于心肺功能评测的多接口边缘计算数字底座,包括:多接口数据接收模块,用于接收心肺感知终端数据以及环境传感数据;数据预处理模块,用于对接收到的数据进行设备协议解析、滤波、特征提取的预处理操作;边缘计算推理模块,用于部署心肺功能评测人工智能模型并基于预处理数据进行实时推理评测;数据存储与管理云服务模块,用于将所采集数据以及评测结果存储于云端时序数据库;人机交互模块,用于显示用户信息输入以及心肺功能评测结果。本发明可以通过多接口数据接收模块连接现有多种心肺功能感知终端,并通过数据预处理模块进行协议解析、滤波、特征提取,然后经过边缘计算推理模块对心肺功能进行实时评测。
-
公开(公告)号:CN111340686B
公开(公告)日:2023-05-23
申请号:CN202010101931.6
申请日:2020-02-19
Applicant: 华南理工大学
Abstract: 本发明公开了一种具有人群偏向的虚拟现实场景评估方法、系统及介质,系统包括虚拟现实场景生成模块、路径自定义模块、三维空间到全景图序列的映射模块、具有人群偏向的显著性区域预测模块、显著性图序列到三维空间的映射模块以及带有不同用户特征下显著性预测结果的虚拟场景显示模块。本发明利用虚拟现实场景下的三维空间到全景图序列的映射与反向映射技术,解决了现有技术无法直接应用在虚拟现实场景中的问题。
-
公开(公告)号:CN114581823A
公开(公告)日:2022-06-03
申请号:CN202210174140.5
申请日:2022-02-24
Applicant: 华南理工大学
Abstract: 本发明属于认知心理学、虚拟现实技术和情感连续识别的交叉融合领域,为基于时序特征的虚拟现实视频情感识别方法和系统,包括:建立带有连续情感标签的虚拟现实场景音视频数据集;对待识别的虚拟现实场景视频进行跨范式数据预处理;对预处理后的数据进行特征提取,用深度学习网络提取来自音频、视觉、时序和生理信号的深度特征;训练单模态虚拟现实场景视频情感回归模型,并融合生成、训练多模态情感回归神经网络模型;将待识别虚拟现实场景视频输入多模态情感回归神经网络模型,输出连续情感回归结果。本发明能够基于时序、视觉、音频、生理信号多模态特征,为虚拟现实场景视频的情感评估提供新途径,高效准确地进行情感连续识别。
-
-
-
-
-
-
-
-
-