-
公开(公告)号:CN111923049A
公开(公告)日:2020-11-13
申请号:CN202010848414.5
申请日:2020-08-21
Applicant: 福州大学
Abstract: 本发明提出基于球面模型的飞行机械臂视觉伺服与多任务控制方法,采用的伺服结构包括无人机、机械臂和控制模块;机械臂安装于无人机的机械臂安装面处;机械臂安装面处还设有深度相机,其拍摄角度与机械臂安装面成角度设置,控制模块使深度相机、机械臂组合为机器人手眼标定系统;所述机械臂末端设有执行器;所述控制模块为可对无人机的飞行进行控制的控制模块;当所述飞行机械臂需对目标进行操作时,控制模块经深度相机对目标距离进行评估,若目标位于机械臂操作范围外,则控制模块驱动无人机向目标飞行,若目标位于机械臂操作范围内,则控制模块驱动机械臂对目标进行操作;本发明能在无人机上挂载具备主动操纵能力的机械臂。
-
公开(公告)号:CN111260735A
公开(公告)日:2020-06-09
申请号:CN202010034949.9
申请日:2020-01-13
Applicant: 福州大学
Abstract: 本发明涉及一种单次拍摄的LIDAR与全景相机的外参数标定方法,包括如下内容将LIDAR与全景相机固定在Robotnik移动机器人上。然后将多个棋盘放置于LIDAR与全景相机的共同视场下,一次拍摄收集单帧的全景图像与该帧全景图像对应的点云数据;接着,利用生长的棋盘角点检测算法,检测出全景图像的棋盘角点;对点云数据进行预处理,分割去除点云地面,分割点云平面、提取棋盘点云;基于点云的反射强度,估计出棋盘点云的棋盘角点;最后,通过定义从棋盘左下侧开始的角点共同计数顺序,建立全景图像的棋盘角点与点云的棋盘角点的几何约束方程,求解出外部校准参数。只需要一次拍摄,就能实现LIDAR和全景相机的外参数标定。
-
公开(公告)号:CN110738697A
公开(公告)日:2020-01-31
申请号:CN201910957758.7
申请日:2019-10-10
Applicant: 福州大学
Abstract: 本发明提出一种基于深度学习的单目深度估计方法,包括:基于用于单目深度估计的无监督卷积神经网络结构,包括:编码器、多尺度特征融合模块、门控自适应解码器和细化单元;包括以下步骤:步骤S1:数据集预处理;步骤S2:构造卷积神经网络的损失函数,输入训练集图像,使用反向传播算法计算损失函数损失值,通过反复迭代减小误差进行参数学习,使预测值逼近真实值,以获得卷积神经网络的最佳权重模型;步骤S3:加载步骤S2已训练好的权重模型,将测试集输入用于单目深度估计的无监督卷积神经网络,获得深度预测图像。其解决了离线训练时计算量大和深度重建中细节部分恢复效果差的问题。
-
公开(公告)号:CN110703768A
公开(公告)日:2020-01-17
申请号:CN201911086247.9
申请日:2019-11-08
Applicant: 福州大学
IPC: G05D1/02
Abstract: 本发明涉及一种改进型动态RRT*的移动机器人运动规划方法。该方法剔除了原RRT*算法中所有的碰撞检测,通过在代价函数中增加碰撞风险评估分量的方法控制代价函数值。当采样点或边与障碍物发生碰撞时,该分量将显著增大,促使代价函数值同步显著增大,抑制了发生碰撞的点和边继续扩张的可能性,从而使算法具有避障的能力。因本发明方法没有碰撞检测,在移动机器人运动规划问题上比RRT*算法收敛的速度更快,效率更高,在越复杂的环境中优势越突出。
-
公开(公告)号:CN110244756A
公开(公告)日:2019-09-17
申请号:CN201910356849.5
申请日:2019-04-29
Applicant: 福州大学
IPC: G05D1/10
Abstract: 本发明涉及一种无人机快速追踪协同避障方法,包括如下步骤:1、获取无人机在t时刻的位姿信息,以及具有追踪目标的二维图像信息;2、采用快速追踪算法对相机视野中追踪目标进行快速追踪;3、通过二维激光雷达获取水平面深度信息;4、根据无人机在t时刻位姿预测其在t+1时刻期望位姿,以对目标进行轨迹预测;5、根据障碍物位置计算排斥矢量偏差值,以对障碍物进行初步规避;6、定义一个智能切换信号,基于步骤5得到的结果,优化避障策略,使无人机满足最小避障要求时触发该信号,然后按步骤4和步骤5的方法,在对追踪目标进行快速追踪的同时进行高效避障。该方法可以使无人机在快速跟踪地面目标的同时躲避空中障碍物。
-
公开(公告)号:CN109978940A
公开(公告)日:2019-07-05
申请号:CN201910243470.3
申请日:2019-03-28
Applicant: 福州大学
Abstract: 本发明涉及一种SAB安全气囊尺寸视觉测量方法:采集气囊样件的光学图像;对所述光学图像进行倾斜矫正;构造线性平滑滤波器进行滤波,除去高频成分和锐化细节;采用Canny边缘检测和形态学闭运算提取边缘;依据长宽比、面积等特征准确定位目标区域;采用最小二乘直线拟合的方法拟合外轮廓,依据点测距原理,进行视觉测量;预缝线间距测量采用灰度直方图与投影法相结合,进行精确测量;可以将测量方法应用于生产流水线中,与过往的技术相比,整个系统更具有移植性,自动化程度更高,可以大幅度提高检测效率。对比人工检测,误差的随机性小,而且误差也相对更小,可以长时间稳定测量、分析而不会产生疲劳,可以节省大量劳动力。
-
公开(公告)号:CN109597418A
公开(公告)日:2019-04-09
申请号:CN201910038299.2
申请日:2019-02-27
Applicant: 福州大学
IPC: G05D1/02
CPC classification number: G05D1/0088 , G05D1/027 , G05D1/0272 , G05D1/0289
Abstract: 本发明涉及一种基于独立虚拟中心点的机器人分散式协同避障方法,包括如下步骤:步骤1:利用扩展卡尔曼滤波融合惯性测量单元与里程计数据,获得机器人的当前位姿信息;步骤2:通过网络通信,机器人之间共享速度和位置信息,计算出每个机器人的虚拟中心点,虚拟中心点随机器人运动而运动;步骤3:根据每个机器人的当前位置与其目标点位置、其虚拟中心点的位置,得到机器人的目标矢量和排斥矢量;步骤4:定义一个切换信号判断机器人的运动模式为避障模式或者为无障碍模式;步骤5:利用矢量微分法得到机器人的期望速度与期望角度,根据控制法则得到机器人的实时速度和角速度,指导机器人运动。避障方法采用绕虚拟中心点,垂直于排斥矢量方向旋转运动;无障碍模式即机器人始终朝着目标矢量运动,从而引导机器人进行有序地避障。
-
公开(公告)号:CN107978195A
公开(公告)日:2018-05-01
申请号:CN201711476102.0
申请日:2017-12-29
Applicant: 福州大学
CPC classification number: G09B9/00 , G06F3/011 , G06T19/006 , G09B5/02
Abstract: 本发明涉及一种基于虚拟现实平台的侧脑室穿刺手术训练系统,包括:用于提供病人CT扫描图像以及病人信息的CT扫描/MRI图像数据导入单元、用于建立三维模型的CT扫描/MRI图像重建单元、提供虚拟显示环境显示的虚拟现实头戴式显示设备、提供虚拟现实环境操作信息的操作手柄以及虚拟现实处理单元;所述虚拟现实处理单元包括:用于提供与现实手术环境匹配的虚拟环境的VR环境单元、用于提供对操作人员语音识别的VR语音识别单元以及用于执行手术操作的VR手术单元。本发明提出的一种基于虚拟现实平台的侧脑室穿刺手术训练系统,解决实验教学中资源短缺问题,增强医生培训的真实感,降低培训成本,而且有利于医生总结经验,避免医患纠纷。
-
公开(公告)号:CN106898221A
公开(公告)日:2017-06-27
申请号:CN201710265525.1
申请日:2017-04-21
IPC: G09B23/28
CPC classification number: G09B23/28
Abstract: 本发明涉及一种侧脑室穿刺手术演练装置,包括颅骨模型,所述颅骨模型由位于眉心以上的头顶盖模型以及位于眉心以下的颅骨主体组成,所述头顶盖模型与颅骨主体之间可拆连接,所述颅骨模型的内部设有模拟脑组织,所述模拟脑组织的内部设有模拟侧脑室,所述模拟侧脑室内部设有压力传感器、进水胶管、出水胶管,所述头顶盖模型上设有术区模块,其中术区模块处的头顶盖模型由外往内依次由模拟皮肤层、模拟骨质层、模拟硬脑膜层组成,结构简单。
-
公开(公告)号:CN104107094B
公开(公告)日:2017-04-12
申请号:CN201410288692.4
申请日:2014-06-25
Applicant: 福州大学
IPC: A61C19/04
Abstract: 本发明涉及一种口腔医学无托槽无痕矫治力在三维坐标中的测量问题,提出了一种无痕矫治器的三维力测量系统及测量方法。其将单颗待矫治牙从整体牙颌石膏模型中分离出来,六维力传感器是与单颗待矫治牙固定连接,用X,Y,R轴位移微调平台模拟正畸过程控制单颗待矫治牙的位置变化,迫使无痕矫治器发生变形,产生变形回复力,从而测定无痕矫治在三维坐标上的矫治力。通过对无痕矫治器在三维坐标的作用力系及作用效果的研究,使正畸医生制定更加合理有效的治疗方案,设计人员设计更完美的个性化无痕矫治器。该方法不仅测量精度高,实时性好,而且测量过程简单易行。
-
-
-
-
-
-
-
-
-