-
公开(公告)号:CN118058838A
公开(公告)日:2024-05-24
申请号:CN202410207370.6
申请日:2024-02-26
Applicant: 苏州大学
IPC: A61B34/20 , A61B34/10 , A61B34/30 , A61B34/35 , A61B17/00 , A61B17/94 , G06T19/00 , G06T7/73 , G06V10/46 , G06V10/44 , G06V10/62 , G06V10/75 , G06V10/82 , G06N3/0464 , G06T7/00
Abstract: 本发明涉及手术机器人定位导航技术领域,尤其是指一种消化内镜手术机器人智能化定位导航方法,包括:获取消化腔道内的连续时间帧图像,并采样连续时间帧图像的共有特征点;基于共有特征点,得到行进深度特征点;基于连续时间帧图像,生成粗粒度深度图,将行进深度特征点投影到粗粒度深度图中;构建关系图卷积网络,由粗粒度深度图提取出的深度节点、连续采样帧图像提取出的局部图像块节点、图像特征节点和几何投影节点作为输入,训练所述关系图卷积网络,得到细粒度行进深度值;基于细粒度行进深度值,将消化内镜的实时位置投影在提前构建好的消化器官三维模型上,辅助外科手术操作。本发明能够实现消化内镜在消化器官中行进深度的精准估计。
-
公开(公告)号:CN119540448A
公开(公告)日:2025-02-28
申请号:CN202411483686.4
申请日:2024-10-23
Applicant: 苏州大学
Abstract: 本发明提供一种单目内窥镜下软组织的动态三维重建方法、计算机设备和存储介质,属于图像处理技术领域。方法中利用从深度先验计算出的置信度图对深度进行全面的评估和修正,从而解决几何辐射模糊的问题;利用表面渲染的概念,采用一个由带符号距离函数表征的密度场和由球谐函数表示的颜色场,通过优化损失函数,能够实现精确的深度预测和高效的图像渲染,恢复更细致的场景细节,并获得软组织准确的动态3D重建。
-
公开(公告)号:CN120032223A
公开(公告)日:2025-05-23
申请号:CN202510040980.6
申请日:2025-01-10
Applicant: 苏州大学
Abstract: 本发明提供一种医学图像分割模型训练方法、系统和医学图像分割方法,其中训练方法包括预训练一个分割精度高的大模型作为第一教师网络,再搭建具有RGCN的语义分割学生网络,接着,搭建置信度判别网络,将第一教师网络输出的表示每个像素点的概率图输入到搭建的置信度判别网络中,并得到置信度图,最后将置信度图融合到学生网络的训练中。本发明采用带有置信度的知识蒸馏,将分割效果好但是分割速度慢的大模型的正确知识传输到分割速度较快的带有RGCN特征融合的小模型中,使小模型具备分割效率和精度。本发明能够避免传统知识蒸馏过程中教师网络对学生网络产生的负面影响,从而获得更好的知识蒸馏效果。
-
公开(公告)号:CN116503296B
公开(公告)日:2024-07-23
申请号:CN202310349885.5
申请日:2023-04-04
Applicant: 苏州大学
Abstract: 本发明涉及一种手术场景图像转换方法,其包括构建改进的CycleGAN模型,所述CycleGAN模型包括第一生成器、第一判别器、第二生成器、第二判别器、对抗生成损失函数、循环一致性损失函数以及器械保护损失函数;获取手术场景图像数据集,所述手术场景图像数据集包括多个样本图像和期望图像,基于手术场景图像数据集训练所述改进的CycleGAN模型;基于训练后的改进的CycleGAN模型,根据所述样本图像,得到转换后的手术场景图像。本发明能在背景不同的情况下转换出图像清晰且器械部分完整的手术场景图像,实现高质量的手术图像转换。
-
公开(公告)号:CN118288303A
公开(公告)日:2024-07-05
申请号:CN202410373321.X
申请日:2024-03-29
Applicant: 苏州大学
Abstract: 本发明涉及软体机器人控制方法领域,尤其是指一种基于手势的冗余软体机器人用户友好型实时控制方法,该方法包括以下步骤:S1:通过光学手跟踪模块生成一定范围的交互空间,并在所述交互空间内实时跟踪手部状态,得到手势信息;S2:在所述手势信息即时变换时,以平滑处理后的四元数形式的手势姿态序列作为输入信号,根据所述输入信号得到驱动指令;S3:基于所述驱动指令,计算出机器人尖端的指定姿态,根据所述指定姿态,线驱动软体机器人的尖端做出与手部运动相对应的转向动作。本发明不仅能够提供直观、自然的交互体验,还能够确保机器人运动的稳定性和准确性。
-
公开(公告)号:CN116503296A
公开(公告)日:2023-07-28
申请号:CN202310349885.5
申请日:2023-04-04
Applicant: 苏州大学
Abstract: 本发明涉及一种手术场景图像转换方法,其包括构建改进的CycleGAN模型,所述CycleGAN模型包括第一生成器、第一判别器、第二生成器、第二判别器、对抗生成损失函数、循环一致性损失函数以及器械保护损失函数;获取手术场景图像数据集,所述手术场景图像数据集包括多个样本图像和期望图像,基于手术场景图像数据集训练所述改进的CycleGAN模型;基于训练后的改进的CycleGAN模型,根据所述样本图像,得到转换后的手术场景图像。本发明能在背景不同的情况下转换出图像清晰且器械部分完整的手术场景图像,实现高质量的手术图像转换。
-
-
-
-
-