-
公开(公告)号:CN114972528B
公开(公告)日:2024-09-24
申请号:CN202210524039.8
申请日:2022-05-13
Applicant: 南开大学深圳研究院
Abstract: 本发明提供一种智慧手术室全局‑局部多目标联合定位方法,该方法包括以下步骤:设计一组具有特定几何规则的反光球固定框架,使其在动作捕捉系统与双目光学跟踪系统下均可以被识别;根据固定在手术场景中的多个反光球框架,将场景中的目标坐标系统一为全局表达;通过基于概率遮挡模型的精度估计方法,获得动态手术场景下的概率分布估计;通过基于卡尔曼滤波的数据融合方法,在手术场景中当反光球框架被部分遮挡时获得连续的定位信息。本发明通过概率遮挡模型获得动态场景下的精度估计,从而使用基于卡尔曼滤波的数据融合方法,获得在智慧手术室下准确、连续的全局坐标表达。
-
公开(公告)号:CN117635743A
公开(公告)日:2024-03-01
申请号:CN202311637837.2
申请日:2023-12-01
Applicant: 南开大学
IPC: G06T11/00 , G06N3/0464 , G06N3/0455 , G06N3/084 , G06N3/042 , G06N5/04
Abstract: 本发明公开一种实时核磁图像序列重建方法、系统及介质。模型训练步骤为:1)数据前处理;2)k空间数据生成;3)通过损失函数进行数据约束,完成对模型的训练和反向传播训练。模型推理步骤为:I.设定核磁图像序列在全采样条件下的采样参数;II.实时欠采样拍摄,选择采样区域的中心区域数据,获得实时欠采样的k空间数据;III.对实时欠采样的k空间数据进行零填充操作;IV.通过生成网络框架,根据已有的k空间中心区域数据,生成“伪”全采样的k空间数据;V.通过IFFT变换得到最终重建图像。针对不同类别的目标对象,给予基于个性化注意力机制的模型调整;亦可对常规的非实时单帧多层核磁k空间数据进行重建,因考虑了空间关系,故重建效果更为出色。
-
公开(公告)号:CN116350475A
公开(公告)日:2023-06-30
申请号:CN202310543437.9
申请日:2023-05-15
Applicant: 南开大学
Abstract: 本发明涉及一种气动人工肌肉驱动的上肢外骨骼康复结构,其包括背部框架、肩关节外展模块、肩关节屈伸模块、肘关节屈伸模块、肩关节调节模块和肘关节调节模块。本发明采用绳驱与直驱结合的方式,部分关节处利用气动人工肌肉直驱能够实现更接近医师手动治疗的康复效果。拥有肩关节和肘关节两处的尺寸调整机构,可以适应大部分患者上肢的尺寸,相对于固定式外骨骼整体上结构更为紧凑,满足可穿戴的要求,在此基础上实现了更大的工作空间,满足更复杂的康复需求。兼具柔性驱动器的高适应性和刚性结构的运动精度。
-
公开(公告)号:CN110211150B
公开(公告)日:2023-04-18
申请号:CN201910340918.3
申请日:2019-04-25
Applicant: 南开大学
IPC: G06V20/40 , G06T7/246 , G06T7/277 , G06T7/11 , G06V10/25 , G06V10/26 , G06V10/50 , G06V10/56 , G06V10/52 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 一种具有尺度协调机制的实时视觉目标识别方法,以目标分割确定待识别主体的大小,协调实时目标跟踪中待识别区域的尺度,从而提高识别精度。该方法首先对采集到的图像按对比度作图像分割,将待识别主体从背景中分割出来以确定待识别主体的大小。此外,在普通的实时视觉目标识别流程中,目标跟踪算法计算出每一帧中跟踪目标主体位置,并将主体位置提供给目标识别算法完成识别。当目标分割后的主体大小与目标跟踪后的主体大小之比高于阈值时,启动尺度协调机制,以目标分割大小为准,调整识别框基于跟踪框的扩大倍数。所提方法能够有效应对目标主体形变、旋转等问题。
-
公开(公告)号:CN115816434A
公开(公告)日:2023-03-21
申请号:CN202211475508.8
申请日:2022-11-23
Applicant: 南开大学
Abstract: 本发明公开了一种串并混联机器人及手术设备,串并混联机器人包括平动模块及转动模块;所述转动模块安装在所述平动模块的平移端,所述平动模块用于驱动所述转动模块平动,转动模块包括基体、并联球面机构以及用于连接待连接工具的固定件,并联球面机构包括3个运动链组件,且3个运动链组件的一端分别沿着基体的轴心线环形均布在基体上,3个运动链组件的另一端分别沿着固定件的轴心线环形均布在固定件上,且3个运动链组件的圆心均重合。本发明采用并联球面机构提高了转动模块的自由度及刚性。相对于现有技术中串联的双平行四边形机构来说,本发明并联球面机构为并联机构,减小了所占用体积,从而减小了机器人的体积,提高了自由度及刚性。
-
公开(公告)号:CN114972528A
公开(公告)日:2022-08-30
申请号:CN202210524039.8
申请日:2022-05-13
Applicant: 南开大学深圳研究院
Abstract: 本发明提供一种智慧手术室全局‑局部多目标联合定位方法,该方法包括以下步骤:设计一组具有特定几何规则的反光球固定框架,使其在动作捕捉系统与双目光学跟踪系统下均可以被识别;根据固定在手术场景中的多个反光球框架,将场景中的目标坐标系统一为全局表达;通过基于概率遮挡模型的精度估计方法,获得动态手术场景下的概率分布估计;通过基于卡尔曼滤波的数据融合方法,在手术场景中当反光球框架被部分遮挡时获得连续的定位信息。本发明通过概率遮挡模型获得动态场景下的精度估计,从而使用基于卡尔曼滤波的数据融合方法,获得在智慧手术室下准确、连续的全局坐标表达。
-
公开(公告)号:CN113436313A
公开(公告)日:2021-09-24
申请号:CN202110566991.X
申请日:2021-05-24
Applicant: 南开大学
Abstract: 本发明提供一种基于无人机的三维重建误差主动修正方法,包括以下步骤:利用等距正视约束对无人机拍摄轨迹进行规划,以达到期望的三维重建优化效果;通过基于分块深度直方图的改进粒子滤波定位算法对无人机机载相机进行定位;设计一组定量指标来评估实际飞行与期望规划位姿的误差所导致的图像视野损失;根据视野重叠率以及损失函数评分,在无人机采集的图像中挑选关键帧参与重建。本发明采用等距正视约束对无人机重建轨迹进行规划,提出了一种基于深度分块直方图分析的粒子滤波优化方法,来对无人机进行精准定位,并进一步设计了一组定量指标来评估位姿误差导致的图像期望视野损失,并重新选择参与三维重建的关键帧,增强了视觉重建的效果。
-
公开(公告)号:CN111652261A
公开(公告)日:2020-09-11
申请号:CN202010120330.X
申请日:2020-02-26
Applicant: 南开大学
Abstract: 本发明提供一种用于全场景的多模态感知融合系统,所述多模态感知融合系统包括上位机、激光雷达、多目相机、IMU、红外深度相机、电源,所述多目相机包括两个FLIR工业网口相机和两个USB3.0相机,其组成多模态感知融合系统的步骤为:安装各硬件、软件的安装以及数据的获取、模型的构建。本发明使用建模辨识中的麦夸特算法对外参数进行迭代优化,得到最优估计,从而得到最精确地模型和效果图,使得融合更加精准,能够达到实时的感知环境,并且该多模态感知融合系统小巧,重量较轻,可用于无人车车载,无人机机载,医疗行业,军事无人环境的建模,也可用于室内室外等各种复杂环境,为规划导航奠定基础。
-
公开(公告)号:CN109976164A
公开(公告)日:2019-07-05
申请号:CN201910340919.8
申请日:2019-04-25
Applicant: 南开大学
Abstract: 本发明公开了一种多旋翼无人机能量优化视觉覆盖轨迹规划方法,其特征在于:建立旋翼无人机能量消耗模型,将旋翼无人机飞行过程中的能量消耗描述为实时功率对时间的积分,建立起实时功率与旋翼无人机运动状态、起飞重量、风阻、空阻之间的对应关系;以最小化旋翼无人机能耗为性能指标,以初始状态,终端状态等作为约束,构建最优控制问题并求解任意两路径点之间的能量最优轨迹;把覆盖指定兴趣区域所需遍历的所有路径点记入加权图,通过启发式算法搜索得到覆盖整个兴趣区域能耗最少的覆盖轨迹。本发明可以实现客观、直接、精确的旋翼无人机视觉覆盖轨迹规划,充分考虑旋翼无人机的各种性能约束,并且提高了旋翼无人机的视觉覆盖效率。
-
公开(公告)号:CN109885084A
公开(公告)日:2019-06-14
申请号:CN201910173816.7
申请日:2019-03-08
Applicant: 南开大学
Abstract: 本发明公开了一种基于单目视觉和模糊控制的多旋翼无人机自主降落方法,在无人机目标降落区域布设印制二维码标识的起落架,无人机借助GPS归航至目标区域附近并基于单目视觉信息搜索、检测标识,获取标识相对空间位姿与二维码标识序列ID值。基于模糊控制方法与视觉图像反馈信息对无人机进行自主降落规划与控制。为保证在狭窄起降空间内的安全性,设计倒锥形安全区域作为无人机降落的空间位置约束。无人机以平滑、高效的方式平稳、安全的降落至目标标识所在的起落架上。本发明克服了单纯依靠GPS定位导致降落精度不足的缺陷,成本低,同时模糊控制克服了PID控制常见的超调、依赖精确数学模型的难题,飞行区域安全可靠,应用方便,具有重要的工程价值。
-
-
-
-
-
-
-
-
-