-
公开(公告)号:CN116141372A
公开(公告)日:2023-05-23
申请号:CN202310151098.X
申请日:2023-02-22
Applicant: 中国科学院自动化研究所
Abstract: 本发明涉及灵巧手技术领域,提供一种关节、灵巧手抓取机构及灵巧手机器人。上述关节包括第一构件和第二构件;第一构件与第二构件形成运动副,第一构件内设有第一流体通道,第二构件内设有第二流体通道,第一构件与第二构件之间设有第三流体通道;在第一构件与第二构件静止或相对运动的情形下,第一流体通道通过第三流体通道与第二流体通道连通,以形成流体通路。本发明可基于关节自身的结构特征,通过流体通路内设置的流体,实现对触觉信号的传递或进行动力的传输,能够根据触觉信息的反馈,确保灵巧手抓取机构对目标对象夹持控制的精度,提升灵巧手抓取机构抓取操作的安全性。
-
公开(公告)号:CN115227390B
公开(公告)日:2023-03-28
申请号:CN202210771448.8
申请日:2022-06-30
Applicant: 中国科学院自动化研究所
Abstract: 本发明提供一种机器人主操作手,属于医疗器械技术领域,所述机器人主操作手包括:主动自由度的连杆、被动自由度的编码器、操作杆及主控制板;操作杆上设有接触传感器及第一触感马达,连杆与编码器的连接处设有第二触感马达;接触传感器、第一触感马达及第二触感马达的控制驱动部分集成在主控制板的控制电路中;主控制板基于力感知信号及接触传感器采集到的中断信号向第一触感马达及第二触感马达发送触感信号,通过第一触感马达及第二触感马达进行触觉力反馈输出。本发明提供的机器人主操作手通过带有力反馈的操作杆及连杆,实现主控制板发送的触感信号通过进行操作杆及连杆力反馈控制,提高手术操作的真实感,为手术主操作手的安全使用提供保障。
-
公开(公告)号:CN115721421A
公开(公告)日:2023-03-03
申请号:CN202211328226.5
申请日:2022-10-27
Applicant: 中国科学院自动化研究所
Abstract: 本发明提供一种用于手术机器人主操作手的力反馈方法及装置,其中所述用于手术机器人主操作手的力反馈方法包括:获取手术机器人主操作手的第一力反馈数据及场景数据;基于场景数据,生成手术机器人主操作手对应的虚拟保护域;基于第一力反馈数据及虚拟保护域,利用阻抗控制算法生成目标力反馈数据;向力反馈设备控制器发送第一指令,第一指令用于指示力反馈设备控制器基于目标力反馈数据对手术机器人主操作手进行控制。通过上述方法,虚拟保护域的设计可以完成针对手术机器人主操作手拉力或斥力力场的构建,从而可以将触觉反馈到手术机器人主操作手,使医生能够真实地感觉到力的反馈效果,避免人体组织损伤。
-
公开(公告)号:CN115342953A
公开(公告)日:2022-11-15
申请号:CN202210771465.1
申请日:2022-06-30
Applicant: 中国科学院自动化研究所
Abstract: 本发明涉及传感器技术领域,提供一种柔性可控器械拉线的拉力传感器,该拉力传感器包括:底座;第一安装座,第一安装座安装于底座;PCB板,PCB板安装于第一安装座,PCB板设有光感应元器件;第二安装座,第二安装座与第一安装座相对设置,第二安装座用于连接柔性可控器械的拉线,连接拉线的第二安装座与拉线共同沿第一方向往复移动;反射镜,反射镜安装于第二安装座,反射镜的反射面与光感应元器件相对设置,光感应元器件用于测量PCB板与反射镜间的距离;调整螺钉,调整螺钉的第一端安装于底座,调整螺钉的第二端连接第一安装座,调整螺钉用于驱动第一安装座沿第一方向往复移动;其中,第一方向为PCB板朝向反射镜的方向。
-
公开(公告)号:CN115281584A
公开(公告)日:2022-11-04
申请号:CN202210771447.3
申请日:2022-06-30
Applicant: 中国科学院自动化研究所
Abstract: 本发明提供一种柔性内窥镜机器人控制系统及柔性内窥镜机器人模拟方法,属于医疗机器人技术领域。该系统包括:图像模块、仿真模拟模块、设备监测模块和数据展示模块;所述图像模块、所述仿真模拟模块、所述设备监测模块和所述数据展示模块之间互相连接。本发明提供的柔性内窥镜机器人控制系统及柔性内窥镜机器人模拟方法,实现了设备状态检测,提高控制精度,使机器人运行过程更透明,提高了系统交互性,还能实现虚拟环境中虚拟柔性内窥镜模型的实时模拟。
-
公开(公告)号:CN115227390A
公开(公告)日:2022-10-25
申请号:CN202210771448.8
申请日:2022-06-30
Applicant: 中国科学院自动化研究所
Abstract: 本发明提供一种机器人主操作手,属于医疗器械技术领域,所述机器人主操作手包括:主动自由度的连杆、被动自由度的编码器、操作杆及主控制板;操作杆上设有接触传感器及第一触感马达,连杆与编码器的连接处设有第二触感马达;接触传感器、第一触感马达及第二触感马达的控制驱动部分集成在主控制板的控制电路中;主控制板基于力感知信号及接触传感器采集到的中断信号向第一触感马达及第二触感马达发送触感信号,通过第一触感马达及第二触感马达进行触觉力反馈输出。本发明提供的机器人主操作手通过带有力反馈的操作杆及连杆,实现主控制板发送的触感信号通过进行操作杆及连杆力反馈控制,提高手术操作的真实感,为手术主操作手的安全使用提供保障。
-
公开(公告)号:CN119361165A
公开(公告)日:2025-01-24
申请号:CN202411236349.5
申请日:2024-09-04
Applicant: 中国科学院香港创新研究院人工智能与机器人创新中心 , 中国科学院自动化研究所
Abstract: 本发明提供一种面向医疗保健的去偏多模态大语言模型的训练方法及装置,方法包括:获取关于医疗保健的疾病数据,并从疾病数据识别出多模态大语言模型进行预测的因果变量;基于因果变量构建疾病数据对应的因果关系图;对因果关系图对进行因果推理处理,得到疾病数据对应的去偏训练数据,并通过生成对抗网络对去偏训练数据进行生成,得到合成多模态数据;对合成多模态数据中的因果变量进行加权,并通过加权后的合成多模态数据训练多模态大语言模型。通过本申请,解决现有技术中医学多模态大语言模型对医疗保健的疾病数据进行预测时带有偏见,导致针对疾病的诊断和分析仍然存在预测偏差的缺陷。
-
公开(公告)号:CN119128798A
公开(公告)日:2024-12-13
申请号:CN202411183055.0
申请日:2024-08-27
Applicant: 中国科学院香港创新研究院人工智能与机器人创新中心 , 中国科学院自动化研究所
Abstract: 本发明提供一种基于联合生成式预训练的大语言模型的训练方法及装置,获取医疗图像以及描述文本,通过视觉编码器进行编码,得到特征图;针对特征图中的每个像素编码,从多模态大语言模型的原始统一码本中,查询像素编码的相似编码,得到码本图以及量化特征图;获取查询指示图,对原始统一码本进行相似编码筛选,得到筛选更新码本。最后通过多模态大语言模型的模型码本进行衰减更新,得到训练更新码本,并基于所述训练更新码本训练所述多模态大语言模型。通过本申请,克服现有技术中医疗领域的从视觉信息到文本信息的映射学习变得复杂且困难、且信息整合不够精确,导致多模态大语言模型在医疗领域适用性和应用效果受到限制的缺陷。
-
公开(公告)号:CN118000910A
公开(公告)日:2024-05-10
申请号:CN202410139090.6
申请日:2024-01-31
Applicant: 中国科学院自动化研究所
Abstract: 本发明提供一种柔性末端可控医疗器械进给机构的对准系统的控制方法,控制方法包括如下步骤:本对准系统主要由线性驱动机构、各转动机构和连接件组成,可视为关节和连杆的组合,并以机器人运动学建模方法建立柔性末端可控医疗器械进给机构的运动学模型;进而通过数值法确定进给机构的工作空间并分析所述进给机构的灵活工作空间;基于所述灵活工作空间进行目标位置的选定并控制线性驱动机构和各转动机构使进给机构到达该位置。该控制方法可以实现对进给机构的位姿进行调节,从而实现进给机构与人体自然腔道或微创创口的精准对位,搭载在进给机构上的柔性末端可控医疗器械顺利地进入人体自然腔道或微创创口内,提升了治疗的效率。
-
公开(公告)号:CN117994691A
公开(公告)日:2024-05-07
申请号:CN202311810534.6
申请日:2023-12-26
Applicant: 中国科学院香港创新研究院人工智能与机器人创新中心有限公司 , 中国科学院自动化研究所
IPC: G06V20/40 , G06V10/62 , G06V10/766 , G06V10/80 , G06V10/82 , G06F40/30 , G06F18/25 , G06N3/0455 , G06N3/0985
Abstract: 本发明涉及医疗技术领域,提供一种手术视频描述方法、装置、电子设备和存储介质,方法包括:获取待描述的手术视频;基于视觉编码器,提取手术视频的空间和时间特征,得到视觉令牌特征;基于文本编码器,提取上一次解码文本的文本特征,得到文本令牌特征;基于二分图融合器,将视觉令牌特征和文本令牌特征进行融合,得到融合特征;基于解码器,对视觉令牌特征、文本令牌特征和融合特征进行解码,得到当前次解码文本,并将最终解码文本作为手术视频的描述文本。本发明提供的手术视频描述方法、装置、电子设备和存储介质,能够实现自动化端到端的手术视频的描述文本生成,提高描述文本的生成效率和质量。
-
-
-
-
-
-
-
-
-