-
公开(公告)号:CN108595876A
公开(公告)日:2018-09-28
申请号:CN201810434841.1
申请日:2018-05-09
Applicant: 苏州大学
IPC: G06F17/50
Abstract: 本发明公开了一种基于有限元分析模型的便携式眼压计及眼压测试方法,通过在眼压计前端设置的压力传感器垂直作用于角膜顶端获得测试值,之后采用有限元法建立传感器的运动位移与接触压力之间的关系模型,并利用所建立的模型和测得的输出值导出眼内压。本发明所设计的眼压计中通过使用动态的角膜杨氏模量来获得高精度的传感器分析模型,通过模型中所建立的角膜内载荷、传感器的运动位移和角膜与传感器之间接触面积的关系可以简单地准确的导出眼压。
-
公开(公告)号:CN108168740A
公开(公告)日:2018-06-15
申请号:CN201711308033.2
申请日:2017-12-11
Applicant: 苏州大学
Abstract: 本发明公开了一种基于微液滴的全柔性无源压力传感器及其制造方法及其检测方法,基于微液滴的全柔性无源压力传感器,包括:形成感应腔室的两层导电电极,滴于感应腔室内的感测液滴,设于感应腔室两侧的传感器线圈,设于传感器线圈内的间隔层,覆盖导电电极和传感器线圈的柔性覆盖膜,感应腔室内设有供感测液滴扩展的空间。本发明在外部负载作用下,传感器的柔性覆盖膜发生弯曲形变,压迫内部的感测液滴向四周扩展,从而改变设备的电容值;将谐振频率的相应变化转换为可由外部电磁耦合线圈检测的信号,传感器具有灵敏性高,可靠重复性,高稳定性,检测方便,检测精度高的优点。
-
公开(公告)号:CN106934761A
公开(公告)日:2017-07-07
申请号:CN201710080611.5
申请日:2017-02-15
Applicant: 苏州大学
IPC: G06T3/00
Abstract: 本发明公开一种三维非刚性光学相干断层扫描图像的配准方法,步骤为首先对OCT扫描图像进行预处理,包括依次对OCT扫描图像进行OCT去噪、图像分层和图像投影,进而得到视网膜血管的二维投影图像;然后从视网膜血管的二维投影图像中提取血管,得到血管的二维特征点,根据得到的二维特征点返回到三维空间得到三维的特征点;然后基于得到的三维特征点,利用仿射变换进行图像粗配准,最后利用非刚性方法进行图像的精确配准,得到精确配准的图像。本发明将基于灰度的非刚性配准方法与基于特征仿射变换配准方法进行结合,对三维OCT(光学相干断层成像)的扫描图像进行配准,可提高配准结果的精确度和可靠性。
-
公开(公告)号:CN106780518A
公开(公告)日:2017-05-31
申请号:CN201710073688.X
申请日:2017-02-10
Applicant: 苏州大学
CPC classification number: G06T7/0012 , G06T2207/10088 , G06T2207/30096
Abstract: 本发明公开一种基于随机游走和图割的活动轮廓模型的MR图像三维交互分割方法,其包括步骤:S1,选取种子点截取包含垂体瘤的局部三维MR图像数据,进而获取分割的初始边界曲面;S2,基于初始边界曲面,建立混合活动轮廓模型,得到模型能量函数;S3,对能量函数进行离散化;S4,将截取的局部三维MR图像的每个体素点作为图的节点,采用每个体素点的6邻域进行图的构建;对初始边界曲面内外的体素点分别赋予初始值;并根据离散后的能量函数给节点间、节点与源点间,和节点与汇点间连接的边分别赋予对应的权值;S5,基于构建的图进行图割计算,得到分割结果,提取分割结果中的边界曲面即为分割轮廓;S6,以当前分割轮廓替代S1中的初始边界曲面,重复步骤S2至S5,直至分割结果收敛,得到最终分割轮廓。利用本发明可实现垂体瘤MR影像的三维分割,提高垂体瘤图像分割的准确性。
-
公开(公告)号:CN103886592B
公开(公告)日:2016-08-24
申请号:CN201410079706.1
申请日:2014-03-05
Applicant: 苏州大学
Abstract: 本发明公开了一种基于3D?OCT的视网膜层间灰度分析方法,首先对输入的3D?OCT图像进行预处理,之后利用图搜索技术将视网膜的多层结构分割出来,再利用纹理分类方法将RAO区域检测出来,最后进行视网膜层的灰度分析。本发明提供的基于3D?OCT的视网膜层间灰度分析方法,通过对RAO患者内视网膜层灰度的定量分析,使得“患有RAO疾病”这一定性判断,得到了定量的表达,给出定量的指标,来对RAO的严重程度进行独立客观的判断。通过证明此种定量化方法的可行性,为今后向医生提供RAO患者病情的客观依据打下基础。
-
公开(公告)号:CN105701832A
公开(公告)日:2016-06-22
申请号:CN201610034539.8
申请日:2016-01-19
Applicant: 苏州大学
IPC: G06T7/00
CPC classification number: G06T7/0012 , G06T2207/10012 , G06T2207/10081 , G06T2207/10104 , G06T2207/30061 , G06T2207/30096
Abstract: 本发明属于生物医学影像处理领域,具体涉及三维图割算法结合随机游走算法的PET-CT肺肿瘤分割方法,包括如下步骤:对原始PET图像进行线性上采样操作,并对PET和CT图像进行仿射配准;并标定图像的肿瘤种子点和非肿瘤种子点;结合肿瘤种子点对PET图像进行随机游走算法分割;得到完全包括目标肺肿瘤区域的前景目标区域Ro,除Ro以外的区域作为非肺肿瘤区域的背景区域Rb;将前景区域Ro和背景区域Rb分别建立高斯混合模型;根据前景及背景的高斯混合模型分别计算能量项并运用图割算法得到最终分割结果。本方法充分运用了PET图像的功能信息和CT图像的结构信息,使得随机游走算法和图割算法进行互补,最终得到更加精确的肺肿瘤分割结果。
-
公开(公告)号:CN105608694A
公开(公告)日:2016-05-25
申请号:CN201510970343.5
申请日:2015-12-22
Applicant: 苏州大学
IPC: G06T7/00
CPC classification number: G06T2207/10056 , G06T2207/30041 , G06T2207/30242
Abstract: 本发明公开了一种视网膜细胞显微图像分割与计数方法,其特征是,包括如下步骤:首先对图像预处理,然后使用AdaBoost分类器对细胞连通区域进行形状分类判断是否需要分割,之后对细胞进行瓶颈点检测,并使用加速迪杰斯特拉算法连接分割点完成分割,最后将分割获得的新的细胞连通区域重新放入AdaBoost分类器进行形状分类,判断是否需要继续分割。本发明所达到的有益效果:利用阈值滤波、数字形态学操作中计算量小、运算简单、运行效率高等优点;同时结合细胞形状分类、边缘轮廓瓶颈点检测的方法以及加速迪杰斯特拉算法,对重叠、粘连细胞进行分割,获得的结果具有较好的准确性并且本方法有较高的运行效率。
-
公开(公告)号:CN105488350A
公开(公告)日:2016-04-13
申请号:CN201510868723.8
申请日:2015-12-02
Applicant: 苏州大学
Abstract: 本发明公开了一种基于反应扩散模型的三维脉络膜新生血管生长预测方法,包括以下步骤:图像预处理、网格化、建模、参数训练、生长预测。本发明融合了刚性配准、ISO2Mesh网格化方法、反应扩散模型、多项式数据拟合法等步骤,预测结果具有较高的准确性,能够有效的预测疾病的发展趋势,对于临床相关眼科疾病的诊断与治疗能起到重要的辅助作用。
-
公开(公告)号:CN103699901A
公开(公告)日:2014-04-02
申请号:CN201310692851.2
申请日:2013-12-17
Applicant: 苏州大学
Abstract: 本发明公开了一种基于支持向量机的3D OCT视网膜图像中IS/OS缺失区域自动检测方法,包括获取受试者的视网膜三维图像数据;对视网膜三维图像数据进行分层找到视网膜IS/OS区域;对视网膜IS/OS区域的缺失区域进行人工手动标定作为金标准;选取特征对视网膜IS/OS区域的每一个像素点进行特征提取构建特征集;训练集和测试集的构建;利用支持向量机对训练集和测试集进行训练和测试,得测试集的测试结果;将测试结果与金标准进行比较,获得测试结果的准确率信息,将测试结果反馈到视网膜三维图像数据中,完成测试结果的直观显示。本发明方法简单可行;使得“视网膜IS/OS缺失与视力存在一定的关系”得到定量表达。
-
公开(公告)号:CN103679805A
公开(公告)日:2014-03-26
申请号:CN201310699381.2
申请日:2013-12-19
Applicant: 苏州大学
Abstract: 本发明公开了基于三维主动轮廓模型和三维哈弗变换的三维肾皮质定位方法,包括建模训练部分和定位部分,建模训练部分包括选用10-20组三维体数据作为训练数据;插值校准选取切片;绘制标记点;利用三维主动轮廓模型建模,得到了一个模型包括腹腔外轮廓、肾皮质外表面和肾皮质内表面三个部分;将肾脏轮廓存入了R-table。定位部分包括搜索定位和定位肾皮质;搜索定位即利用三维哈弗变换将存在R-table中的肾脏轮廓去定位整个肾脏的重心点;定位肾皮质时,将三维主动轮廓模型建模所得到的模型放在已找到的肾脏重心位置,并进行参数化调整小范围在重心点搜索,直至得到定位结果。本发明能够快速有效的定位出肾皮质的具体位置。
-
-
-
-
-
-
-
-
-