-
公开(公告)号:CN110432860A
公开(公告)日:2019-11-12
申请号:CN201910591852.5
申请日:2019-07-01
Applicant: 中山大学中山眼科中心
Abstract: 本发明涉及一种基于深度学习识别广域眼底图中格变裂孔的方法和系统,将广域眼底图像输入卷积神经网络中,判断所述广域眼底图像中是否存在周边视网膜格子样变性或裂孔;当判断为所述广域眼底图像中存在周边视网膜格子样变性或裂孔时,采用显著性区域算法定位广域眼底图像中的格子样变性位置或裂孔位置。本发明可以辅助眼科医生更准确、更便捷地解读患者的广域眼底图像。
-
公开(公告)号:CN110411955A
公开(公告)日:2019-11-05
申请号:CN201910636729.0
申请日:2019-07-15
Applicant: 中山大学中山眼科中心
Abstract: 本发明涉及一种基于分子特征预测物质颜色气味的人工智能训练系统,用于根据训练集训练出基于分子特征预测物质颜色/气味的机器学习模型,所述训练集包括已知颜色/气味的不同分子结构的物质样本,包括:描述符提取模块,用于提取所述物质样本的分子描述符;特性分类模块,用于根据所述物质样本的颜色/气味进行分类;模型训练模块,用于根据所述描述符提取模块所提取物质样本的分子描述符和所述特性分类模块所进行的分类,训练机器学习模型。本发明基于物质的分子描述符与物质的颜色/气味形成之间的关系,训练机器学习模型,从而能较准确地预测物质的颜色/气味。
-
公开(公告)号:CN109636796A
公开(公告)日:2019-04-16
申请号:CN201811555137.8
申请日:2018-12-19
Applicant: 中山大学中山眼科中心 , 广西壮族自治区人民医院
CPC classification number: G06T7/0012 , A61B3/10 , A61B3/14 , G06T2207/10004 , G06T2207/20081 , G06T2207/20084 , G06T2207/30041
Abstract: 本发明涉及一种人工智能眼部图片分析方法、服务器和系统,其中方法包括:获取用户有红眼现象的眼部图片;通过眼部定位深度学习模型定位出眼部图片上的眼睛;通过视轴异常深度学习模型筛查眼睛视轴区的异常。本发明利用智能终端和网络技术的普及,并依靠人工智能深度学习的高度敏感性和准确性,对用户眼部图片进行分析,使得眼睛视轴区异常的筛查更准确、更智能、更便捷,有利于提高对视轴区眼病筛查的效率。
-
公开(公告)号:CN105787953A
公开(公告)日:2016-07-20
申请号:CN201610181751.7
申请日:2016-03-28
Applicant: 中山大学中山眼科中心
CPC classification number: G06F19/3418 , G06T2207/10004 , G06T2207/30041
Abstract: 本发明公开了一种用于视轴区浑浊识别的智能终端,先采集患者目标眼的图像,并在图像上定位出视轴区,再判断视轴区是否浑浊。整个过程可以由患者自助完成,无需医生参与,在家即可方便快捷地实现检测,有利于及早发现病情,对缓解医疗资源的紧张做出了贡献。
-
公开(公告)号:CN119650081A
公开(公告)日:2025-03-18
申请号:CN202411622455.7
申请日:2024-11-14
Applicant: 中山大学中山眼科中心
Abstract: 本发明公开了一种基于大语言模型的问诊教学方法及系统,所述方法包括:分别从预先构建好的患者扮演背景库、患者疾病问答库以及疾病图片库中随机抽取待重组数据,对各个待重组数据进行重组以生成用于与用户交互的虚拟数字患者对象;在进行问诊教学的过程中,对用户输出的问诊问题和患者疾病问答库进行相似度分析,从患者疾病问答库中筛选确定与问诊问题相对应的匹配结果;根据匹配结果得到参考问诊答复数据,将参考问诊答复数据输入至构建好的大语言问诊教学模型中,得到由大语言问诊教学模型输出的符合问诊教学标准的答复结果,以实现虚拟问诊教学。能够进行医患灵活交互,提高医学生的独立诊断能力。
-
公开(公告)号:CN119632497A
公开(公告)日:2025-03-18
申请号:CN202411635207.6
申请日:2024-11-15
Applicant: 中山大学中山眼科中心
Abstract: 本发明公开了一种干眼症检测方法、系统、设备及介质,逐帧识别采集的历史视频信息中的眼睑点位时间序列数据、眉眼点位时间序列数据和眼红概率;计算眼睑距离和眉眼距离,以构建眼睑距离时间序列数据集和眉眼距离时间序列数据集;计算眨眼识别阈值和皱眉识别阈值,根据眼睑距离时间序列数据集与眨眼识别阈值,识别眨眼帧,眉眼点位时间序列数据集与皱眉识别阈值,识别皱眉帧,并计算每一眨眼帧的眨眼帧数据和每一皱眉帧的皱眉帧数据;采用眨眼帧数据、皱眉帧数据和眼红概率,训练干眼症检测模型,得到目标干眼症检测模型,以用于干眼症实时检测。本申请提供的方法,能够提供一种便捷、实用、准确且能够大规模推广应用的干眼症检测方法。
-
公开(公告)号:CN118248313A
公开(公告)日:2024-06-25
申请号:CN202410274021.6
申请日:2024-03-11
Applicant: 中山大学中山眼科中心
Abstract: 本发明提供了一种远程眼科检查设备启动后的自检方法及系统,所述方法包括:持续获取所述远程眼科检查设备的外观视频数据,确认所述远程眼科检查设备的贴片光点是否正常亮起和确认所述远程眼科检查设备的自检查系统是否正常启动;向所述远程眼科检查设备发送第一指令,以使所述远程眼科检查设备以预设运动轨迹进行运动,并获取对应的运动视频数据;根据所述运动视频数据,确认所述远程眼科检查设备的运动轨迹是否正确;向所述远程眼科检查设备发送第二指令;接收所述远程眼科检查设备上传所述模拟眼科检查过程中的检查数据,并根据所述检查数据的上传用时判断所述远程眼科检查设备的网络连接是否正常,确保远程无人化眼科检查的精确度。
-
公开(公告)号:CN114147701B
公开(公告)日:2023-12-01
申请号:CN202111275165.6
申请日:2021-10-29
Applicant: 中山大学 , 中山大学中山眼科中心
Abstract: 本发明涉及一种机器人的远程定点校正方法,包括如下步骤:步骤一:记录当前机器人状态;由操作杆输入控制信息;步骤二:RCM目标位移计算;根据步骤一中的机器人状态Lcur,分别对第一关节、第二关节计算在第一关节平面、第二关节平面上进行RCM运动的目标位移量向量;步骤三:远程定点校正;根据步骤二中RCM运动的目标位移量向量,计算第一关节、第二关节计算预计执行RCM运动前后远程定点的位置;对RCM运动前后远程定点的位置进行方差σ计算,若方差为0,不对远程定点进行校正,否则校正RCM运动的目标位移量向量;步骤四:对机器人的位移进行取整补偿,得到机器人位移量;步骤五:机器人根据步骤四的机器人位移量执行每一步移动后,重新执行步骤一至四。
-
公开(公告)号:CN116705326A
公开(公告)日:2023-09-05
申请号:CN202310801116.4
申请日:2023-06-30
Applicant: 中山大学中山眼科中心 , 中山大学附属第一医院
Abstract: 本发明公开了一种终末期肾病疗效评估与并发症风险预测系统,包括:数据输入准备模块,用于获取并预处理血液透析和腹部透析患者的眼部检查数据和元数据;模型训练评估模块,用于使用机器学习算法及经典统计回归来训练模型,使用交叉验证方法并结合模型的准确率来选择模型;预测结果输出模块,用于分别通过所述疗效评估模型、所述并发症及预后风险预测模型输出相应分类结果与预测概率。采用本发明提供的实施例,在治疗前、治疗过程以及长期随访中,对终末期患者治疗情况及长期预后做出全面评估。
-
公开(公告)号:CN115760806A
公开(公告)日:2023-03-07
申请号:CN202211482349.4
申请日:2022-11-24
Applicant: 中山大学中山眼科中心
IPC: G06T7/00 , G06V10/764 , G06V10/82 , G06V10/774 , G06N3/08 , G06N3/0464 , A61B3/135 , A61B3/00 , A61B3/15
Abstract: 本发明公开了一种裂隙灯图像质量检测方法。该方法采用图像质量过滤器对实时拍摄的弥散光图像进行图像质量检测,当检测为不合格时,通过实时指导反馈系统对所述弥散光图像进行图像质量分析,并根据图像质量分析结果生成重新拍摄的操作指导;当所述弥散光图像的检测结果为合格时,检测所述弥散光图像是否满足裂隙光图像和红反光图像的拍摄条件;若满足则进行裂隙光图像拍摄和红反光图像拍摄,若不满足则结束拍摄并输出拍摄结果;通过所述实时指导反馈系统对不合格的裂隙光图像和红反光图像进行图像质量分析,并根据图像质量分析结果生成重新拍摄的操作指导。本发明技术方案提高了对临床裂隙灯图像的采集质量和效率。
-
-
-
-
-
-
-
-
-