-
公开(公告)号:CN119055371B
公开(公告)日:2025-02-11
申请号:CN202411580094.4
申请日:2024-11-07
Applicant: 合肥工业大学
Abstract: 本申请提供一种基于模糊逻辑的手术机器人的多目标自主牵引方法,涉及医疗器械技术领域,该方法包括:在机器人末端装配执行器械,将执行器械的末端运动简化为一个弹簧质点阻尼线性控制系统,构建多个目标控制器;针对各个控制目标分别计算预测评价梯度下降值并构建状态反馈机制;基于预设的状态反馈融合机制对多目标控制量进行加权融合,并将加权融合后的目标值输入弹簧质点阻尼线性控制系统。本申请针对手术场景的复杂性,通过多目标约束控制策略,将手术中的多种安全约束以控制目标的形式整合到机器人的自主运动规划中;通过预先定义牵引点,机器人自动安全地进行组织牵引,不需要任何手术场景或组织模型的先验知识。
-
公开(公告)号:CN119097359A
公开(公告)日:2024-12-10
申请号:CN202411203943.4
申请日:2024-08-30
Applicant: 合肥工业大学
Abstract: 本发明提供一种力驱动和视觉驱动的腔镜视场调节混合控制方法、系统、存储介质和电子设备,涉及腔镜视场调节领域。本发明将通过集成触觉手柄捕获的交互力/力矩、基于视觉信息生成的虚拟力/力矩,以及预设的粘性力/力矩,同时集成到具有创口点约束的持镜动力学模型中,生成腔镜扶持机器人的运动,以混合控制调节腔镜视场。该方法消除了腔镜视野调整过程中频繁切换控制模式的需要,能够同时实现视觉追踪和触觉交互引导,兼顾采用视觉驱动进行连续视场调节,以及采用力驱动进行大规模视场调节。此外,还可通过集成触觉手柄上的握力调节交互力/力矩的增益,使医生误触产生的相互作用力不会使腔镜扶持机器人移动,保证了医生操作的安全性。
-
公开(公告)号:CN119091086A
公开(公告)日:2024-12-06
申请号:CN202411580085.5
申请日:2024-11-07
Applicant: 合肥工业大学
IPC: G06T17/20 , G06T7/00 , G06T7/33 , G06T7/73 , G16H20/40 , G06V10/764 , G06N3/0464 , G06N3/09
Abstract: 本发明提供一种基于手术多阶段场景配准的微创手术术后回顾方法、系统、存储介质和电子设备,涉及术后回顾领域。本发明中,首先获取腹腔镜手术全过程的彩色视频帧序列;其次基于预设的手术阶段识别网络,将每一彩色视频帧分类至不同手术阶段的视频帧集合;再次获取与每一所述视频帧集合对应的实时空间三维高斯三维模型;最后将每一所述实时空间三维高斯三维模型进行多阶段模型配准,形成一个多阶段场景的三维模型。本发明实现多场景的配准,方便医生直观观察手术操作的影响。特别的,基于三维高斯溅射的腹腔镜手术场景三维重建方法能够在彩色视频帧序列仅拍摄到局部体内环境和组织形变情况下建立整体环境的三维模型,克服了腔镜视野受限的弊端。
-
公开(公告)号:CN119090964A
公开(公告)日:2024-12-06
申请号:CN202411580071.3
申请日:2024-11-07
Applicant: 合肥工业大学
Abstract: 本发明提供一种基于3D高斯溅射的器械6D位姿估计方法和系统,涉及计算机视觉领域。本发明提出了一种基于双目深度估计、器械6D位姿估计和深度补全的器械‑组织交互距离估计方法。针对手术器械运动快、纹理低、反光严重等特性造成器械6D位姿估计与跟踪的难点,以及器械存在造成的组织深度估计精度下降的问题,提出分别估计器械和组织的三维位置,并且结合深度补全去除器械遮挡对组织重构的造成的影响。能够实现手术场景的完整三维重构、手术器械的三维位置估计和追踪、器械‑组织相对距离估计。
-
公开(公告)号:CN119090923A
公开(公告)日:2024-12-06
申请号:CN202411580075.1
申请日:2024-11-07
Applicant: 合肥工业大学
Abstract: 本发明提供一种关键帧引导的虚拟标记动态追踪方法和系统,涉及虚拟标记追踪领域。本发明中,首先接收医生在首个彩色图像帧上标注的虚拟标记;其次设计一个在线关键帧池的查询机制,并进行初始化;再次从关键帧中查询得到多个相似关键帧,以减少相似关键帧与当前彩色图像帧之间的差异,简化追踪任务;接着利用稀疏匹配方法获取追踪区域;最后在追踪区域内融合多帧光流得到最终的追踪标记,实现像素级精度追踪内窥镜图像上的二维虚拟标记,保证信息传递的直观性与准确性。其中所采用的两阶段追踪方法,减少了错误追踪。此外,通过动态更新关键帧池,丰富关键帧池的多样性,进一步提高虚拟标记动态追踪的鲁棒性和准确性。
-
公开(公告)号:CN115356991A
公开(公告)日:2022-11-18
申请号:CN202210779467.5
申请日:2022-07-04
Applicant: 合肥工业大学
IPC: G05B19/418 , G06F17/16
Abstract: 本发明提供一种基于运动状态优化的多目标运动融合控制方法和系统,涉及多目标控制优化领域。包括:构建总体线性控制系统并建立状态方程,针对当前复杂场景下的各个目标实现需求,分别设计目标控制器;针对各个目标控制器建立对应的运动控制预测模型以及目标评价函数,在当前时刻的系统运动状态基础上估计未来一段预测时间区间的运动状态,并计算相应的目标评价函数累计值;计算各个控制器目标评价函数累计值在当前时刻的目标梯度;按照权重层次序列由低到高依次嵌套融合各个控制器对应的目标梯度值,并将其加入系统总的控制输入中。针对不同的控制目标需求,分别设立目标函数,通过融合梯度的方式,实现控制目标的运动融合,满足高实时性要求。
-
公开(公告)号:CN109919800A
公开(公告)日:2019-06-21
申请号:CN201910172285.X
申请日:2019-03-07
Applicant: 合肥工业大学
Abstract: 本发明公开了一种基于多目标优化的节能改造补贴分配方法,包括获取研究区域内相关领域节能改造的潜在项目数量和各个项目的经济、能耗、排放指标;构建项目在一定时间期限内的经济效益、节能效益和减排效益计算函数;构建项目的临界点补贴额计算函数,并以综合效益最大化为目标构建优化模型,赋予总补贴金额一个初始值,求解得到初始优化结果;改变补贴金额,利用MATLAB软件循环运算,得到综合效益最大值随总补贴金额增长的关系,确定总补贴最佳金额,并得到最终的补贴分配方案。本发明针对现有技术存在的不足,提供一种基于多目标优化的节能改造补贴分配方法,考虑项目的经济、节能、减排效益,对不同技术领域内的节能改造项目进行综合量化分析,能够提高补贴资金的利用效率和节能改造的实施效果。
-
公开(公告)号:CN119074218B
公开(公告)日:2025-03-04
申请号:CN202411580083.6
申请日:2024-11-07
Applicant: 合肥工业大学
Abstract: 本发明提供一种基于数字高程模型的体内柔性快速三维重建方法和系统,涉及体内柔性快速三维重建领域。本发明,首先获取腹腔镜手术的彩色图像帧序列及其对应的深度图序列;其次利用针孔相机模型,将彩色图像帧及其深度图恢复成彩色点云;再次利用改进的数字高程模型,构建局部三维模型;获取由一系列形变节点组成的形变场;接着利用当前形变场翘曲上一融合后的三维模型,获取翘曲后的三维模型;最后融合翘曲后的三维模型和当前局部三维模型,获取当前融合后的三维模型。能够实时生成体内三维场景的三维模型,帮助医生在手术过程中观察细小组织结构;以及能够拼接时序的彩色图像帧,形成相对完整的三维场景,扩展手术视野范围。
-
公开(公告)号:CN119091060B
公开(公告)日:2025-02-11
申请号:CN202411580076.6
申请日:2024-11-07
Applicant: 合肥工业大学
Abstract: 本发明提供基于三维高斯溅射的腹腔镜手术场景三维重建方法和系统,涉及场景三维重建领域。本发明中,判断当前时刻的彩色图像帧是否为关键帧,启动动态或静态场景优化器,接着启动位姿优化器,交替迭代运行两个优化器直至两者均收敛,实现同时估计准确的相机位姿和组织形变信息。设计的三维重建框架,能够在仅拍摄到局部体内环境和组织形变情况下建立整体环境的三维模型,克服了腔镜视野受限的弊端。此外,引入提供几何表面信息的深度图信息,将其用于监督3D高斯的中心点坐标,使其绑定在表面周围,极大地提高了对组织表面的三维重构精度,且深度图的加入为所有3D高斯提供了几何先验,使得不需要进行3D高斯密度调整。
-
公开(公告)号:CN119090923B
公开(公告)日:2025-01-21
申请号:CN202411580075.1
申请日:2024-11-07
Applicant: 合肥工业大学
Abstract: 本发明提供一种关键帧引导的虚拟标记动态追踪方法和系统,涉及虚拟标记追踪领域。本发明中,首先接收医生在首个彩色图像帧上标注的虚拟标记;其次设计一个在线关键帧池的查询机制,并进行初始化;再次从关键帧中查询得到多个相似关键帧,以减少相似关键帧与当前彩色图像帧之间的差异,简化追踪任务;接着利用稀疏匹配方法获取追踪区域;最后在追踪区域内融合多帧光流得到最终的追踪标记,实现像素级精度追踪内窥镜图像上的二维虚拟标记,保证信息传递的直观性与准确性。其中所采用的两阶段追踪方法,减少了错误追踪。此外,通过动态更新关键帧池,丰富关键帧池的多样性,进一步提高虚拟标记动态追踪的鲁棒性和准确性。
-
-
-
-
-
-
-
-
-