一种无创式颅内压检测装置及其检测方法

    公开(公告)号:CN116671889A

    公开(公告)日:2023-09-01

    申请号:CN202310816422.5

    申请日:2023-07-05

    Abstract: 本发明公开了颅内压测量技术领域的一种无创式颅内压检测装置及其检测方法,包括电阻环、按压传感器、定位线和衬底;所述衬底为柔韧的片状结构,所述衬底的底面设置了贴胶层;所述电阻环、按压传感器和定位线都紧密贴附在衬底的顶面,所述按压传感器不接触的安置在电阻环的圆环内,能够通过按压后的电阻变化率和压力值进行定值,得到准确的颅内压值,并且不需要在颅内安置传感器等异物,测量颅内压值对人体健康无影响,也不是通过触诊来估算颅内压值,使得本装置测量的数值更加准确,可靠性更高,并且将颅内压值由估算和经验判断变为了准确的数值测量操作,能够将更准确的颅内压测量为数值进行记录。

    基于模糊规则插值的飞行机器人模型未知项快速估计方法

    公开(公告)号:CN116300463A

    公开(公告)日:2023-06-23

    申请号:CN202310296895.7

    申请日:2023-03-24

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于模糊规则插值的飞行机器人模型未知项快速估计方法。包括:将飞行机器人的输入误差做为模糊估计器的输入;对模糊估计器的输入输出进行论域划分,得到输入模糊集和输出模糊集,并给出初始模糊规则;采用乘积推理机、单值模糊器和中心平均解模糊器,结合初始模糊规则,设计无插值功能的模糊估计器;根据阈值判断是否需要采用模糊规则插值;若调用模糊插值功能,先确定参考输入隶属函数代表值和输出代表值,利用插值方法求解新的输入隶属函数和输出代表值,计算新生成模糊规则的规则强度并判断得出输出权重值;结合初始模糊规则和插值新生成的模糊规则,设计模糊规则插值估计器。本发明用于实现对飞行机器人建模未知项估计。

    结合多信息融合网络和区域增长的气管树分级提取方法

    公开(公告)号:CN112651969B

    公开(公告)日:2023-04-07

    申请号:CN202110169782.1

    申请日:2021-02-08

    Applicant: 福州大学

    Abstract: 本发明涉及一种结合多信息融合网络和区域增长的气管树分级提取方法,其包括以下步骤:步骤S1:获取肺部的CT图像,并预处理;步骤S2:将预处理后的肺部的CT图像集进行分级,划分整体气管树和细小气管分支两个训练集;步骤S3:分别对整体气管树训练集和细小气管分支训练集进行采样,得到整体气管树训练子集和细小气管训练子集;步骤S4:构建多信息融合分割模型,并根据整体气管树训练子集训练;步骤S5:构建体素分类网络模型,并根据细小气管训练子集训练;步骤S6:将待分割图像数据依次输入训练后的多信息融合分割模型和训练后的体素分类网络模型,得到初步气管树;步骤S7:基于中心线的几何重建方法进处理初步气管树,得到最终的气管树。本发明有效提高分类的准确性。

    动态环境混合视觉系统的动态物检测和静态地图重建方法

    公开(公告)号:CN112132857B

    公开(公告)日:2023-04-07

    申请号:CN202010991546.3

    申请日:2020-09-18

    Applicant: 福州大学

    Abstract: 本发明提出动态环境混合视觉系统的动态物检测和静态地图重建方法,包括以下步骤;步骤S1:进行外参标定,获取全景相机和三维激光两传感器之间的坐标变换参数;步骤S2:将第t帧点云作为特征点投射到第t帧图像上,获取特征点的像素运动向量,并估算因小车运动而引起的特征点的人工运动向量来进行背景运动补偿,从而获得点云中动态点;步骤S3:对当前帧点云进行簇分割;步骤S4:利用点云数据中每个点索引唯一特性,结合动态点检测结果与分割结果,通过簇中动态点的占比进行判断,提取出动态物体;步骤S5:利用八叉树地图工具和该帧下的激光雷达里程计,对静态地图进行重建;本发明可鲁棒地、更为完整地进行动态物体提取和静态三维地图重建。

    基于通行效率评估的机器人分层式自主探索方法

    公开(公告)号:CN115129057A

    公开(公告)日:2022-09-30

    申请号:CN202210793053.8

    申请日:2022-07-07

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于通行效率评估的机器人分层式自主探索方法,包括以下步骤:步骤S1:获取待规划区域三维点云数据,并将环境区域划分为稀疏区域和稠密区域;步骤S2:基于待规划区域三维点云数据,进行区域通行效率评估;步骤S3:综合评估机器人探索代价和收益,利用稀疏区域点云信息进行自主探索全局规划,生成全局路径;步骤S4:根据机器人实时位置和机器人附近稠密区域的点云信息,进行局部路径规划,生成局部精细路径;步骤S5:连接全局路径和局部路径,生成自主探索有序路径点,并将处理结果存入列表中,以此实现分层式自主探索框架;步骤S6:对机器人探索过程中生成地图进行更新。本发明能够实现移动机器人自主探索未知环境并建立环境地图。

    基于卷积神经网络的全景深度估计方法

    公开(公告)号:CN112750155B

    公开(公告)日:2022-07-01

    申请号:CN202110053166.X

    申请日:2021-01-15

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于卷积神经网络的全景深度估计方法,包括以下步骤:步骤S1:采集室外环境的RGB图像,深度图像,点云数据,并根据柱面投影原理将RGB图像以及深度图像拼接成为全景图像;步骤S2:构建卷积神经网络模型,并基于的得到全景图像训练,得到训练后的卷积神经网络模型;步骤S3:将待测的全景图像输入训练后的卷积神经网络模型,获得密集的全景深度预测图像。本发明能够调整优化全景图像的局部细节,从而估计出密集而且准确的全景深度图像。

    一种单次拍摄的LIDAR与全景相机的外参数标定方法

    公开(公告)号:CN111260735B

    公开(公告)日:2022-07-01

    申请号:CN202010034949.9

    申请日:2020-01-13

    Applicant: 福州大学

    Abstract: 本发明涉及一种单次拍摄的LIDAR与全景相机的外参数标定方法,包括如下内容将LIDAR与全景相机固定在Robotnik移动机器人上。然后将多个棋盘放置于LIDAR与全景相机的共同视场下,一次拍摄收集单帧的全景图像与该帧全景图像对应的点云数据;接着,利用生长的棋盘角点检测算法,检测出全景图像的棋盘角点;对点云数据进行预处理,分割去除点云地面,分割点云平面、提取棋盘点云;基于点云的反射强度,估计出棋盘点云的棋盘角点;最后,通过定义从棋盘左下侧开始的角点共同计数顺序,建立全景图像的棋盘角点与点云的棋盘角点的几何约束方程,求解出外部校准参数。只需要一次拍摄,就能实现LIDAR和全景相机的外参数标定。

    一种基于柔性温敏胶带的皮温监测预警装置

    公开(公告)号:CN114366042A

    公开(公告)日:2022-04-19

    申请号:CN202210108597.6

    申请日:2022-01-28

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于柔性温敏胶带的皮温监测预警装置,包括温敏胶带、电源、控制模块和上位机,所述温敏胶带由高灵敏温敏材料和医用压敏胶带构成,所述温敏胶带贴附于身体不同部位,所述电源为控制模块供电,所述温敏胶带与控制模块连接,以将采集到的温度数据传输到控制模块,所述控制模块对温度数据进行分析处理,所述上位机与控制模块无线连接,以对控制模块上传的温度数据和分析处理结果进行可视化展示。该装置有利于简单便捷、准确可靠地监测身体温度。

Patent Agency Ranking