-
公开(公告)号:CN115349952A
公开(公告)日:2022-11-18
申请号:CN202210778943.1
申请日:2022-07-04
Applicant: 安徽医科大学第二附属医院 , 合肥工业大学
Abstract: 本发明提供一种面向动态手术路径引导的引导型三维虚拟夹具生成方法、系统、存储介质和电子设备,涉及虚拟夹具技术领域。本发明中,通过关键点的位置确定局部区域,对局部区域进行追踪,来减少三维关键点的错误追踪;结合内窥镜图像的纹理信息和形状信息,一定程度上避免体内环境特征的不明显带来的影响;在降维后的点云上通过构造优化函数对三维关键点进行精确定位,避免了不同视角下造成的曲线形状不一致性。更进一步的,沿着跟踪得到的三维曲线,建立包含引力与粘滞阻力的虚拟力场,即引导型虚拟夹具,所述引导型虚拟夹具通过力反馈机制精准引导手术器械的移动轨迹。
-
公开(公告)号:CN115359215A
公开(公告)日:2022-11-18
申请号:CN202210779481.5
申请日:2022-07-04
Applicant: 合肥工业大学 , 安徽医科大学第二附属医院
Abstract: 本发明提供一种面向微创关键位点导航的体内三维关键点动态跟踪方法,涉及自主手术机器人技术领域。本发明中根据内窥镜图像与点云之间的映射关系,分别将第一局部区域映射到第一局部点云上、第二局部区域映射到第二局部点云上;并确定第一二维关键点在第一局部点云上的第一三维关键点,通过坐标变换得到第二局部点云上的第二三维关键点;将第二三维关键点映射回第二局部区域,获取下一帧图像上的第二二维关键点;并结合初始二维关键点,通过最小化预设的优化函数,获取跟踪得到的关键点的二维坐标,最终获取对应的三维坐标。通过三维仿射变换对所选择的关键点进行初始跟踪;并结合纹理和光流信息实现了体内环境中三维关键点的精确动态定位与追踪。
-
公开(公告)号:CN116503457A
公开(公告)日:2023-07-28
申请号:CN202310419384.X
申请日:2023-04-14
Applicant: 合肥工业大学 , 安徽医科大学第二附属医院 , 济南显微智能科技有限公司 , 合肥昊川信息科技有限公司
Abstract: 本发明提供一种基于双目内窥镜的在线自监督学习深度估计方法和系统,涉及深度估计技术领域。本发明基于双模式切换的深度估计网络框架:实时重建模式用于对连续影像视频帧进行过拟合,基于连续帧的相似性,将一对双目图像上的过拟合思想扩展到时间序列上的过拟合,通过在线学习不断更新模型参数,能在各种双目内窥镜手术环境下得到高精度的组织深度;精准测量模式用于对医生选定的关键影像视频帧进行过拟合,实现关键影像视频帧的高精度重构。此外,提出的交叉验证排除了无效区域像素的自监督损失对网络学习的误导,进一步提升深度估计的精度;以及稀疏光流引导,提升网络对新场景的适应性与过拟合速度。
-
公开(公告)号:CN115359104A
公开(公告)日:2022-11-18
申请号:CN202210779462.2
申请日:2022-07-04
Applicant: 合肥工业大学 , 安徽医科大学第二附属医院
Abstract: 本发明提供一种基于双目内窥镜的在线自监督学习深度估计方法和系统,涉及深度估计技术领域。本发明包括获取双目内窥镜影像,采用当前双目深度估计网络的编码器网络提取当前帧图像的多尺度特征;采用当前双目深度估计网络的解码器网络,对多尺度特征进行融合,获取当前帧图像中每个像素点的视差;据相机内外参数,将视差转化为深度并作为当前帧图像的结果输出;在不引入外部真值的条件下,利用自监督损失更新当前双目深度估计网络的参数,用于下一帧图像的深度估计。利用连续帧的相似性,将一对双目图像上的过拟合思想扩展到时间序列上的过拟合,通过在线学习不断更新模型参数,能在各种双目内窥镜手术环境下得到高精度的组织深度。
-
-
-