-
公开(公告)号:CN118357903A
公开(公告)日:2024-07-19
申请号:CN202410789869.2
申请日:2024-06-19
Applicant: 安徽大学
IPC: B25J9/00 , B25J9/16 , B07C5/02 , B07C5/36 , B65G45/18 , G06T7/80 , G06N3/006 , G06N3/0464 , G06V10/25 , G06V10/762 , G06V10/82
Abstract: 本发明涉及机械臂智能分拣技术领域,具体的说是一种多机械臂协同的多目标分拣方法,该方法包括如下步骤:搭建流水线多机械臂分拣系统,通过Yolov8算法对视觉机械臂所拍摄的RGB图像分别进行目标检测,得到Yolov8检测出的物体边界框后,结合其对应的深度图像,对该分拣场景进行仿真,构建LightGBM回归模型,训练并验证模型性能后,基于机械臂的预期分拣时间,对各机械臂进行任务分配和调度顺序优化,并最小化总分拣时间;使用粒子群算法优化机械臂调度过程;各机械臂获取抓取任务序列后,基于APF‑RRT算法进行多臂路径规划与避障;基于粒子群算法优化了机械臂任务分配与调度顺序,能有效减少机械臂之间因协同任务造成的相互等待,输出最优抓取序列以提升分拣效率。
-
公开(公告)号:CN117930988A
公开(公告)日:2024-04-26
申请号:CN202410339041.7
申请日:2024-03-25
Applicant: 安徽大学
Abstract: 本发明涉及脑机接口技术领域,尤其涉及一种基于大型语言模型辅助语义纠错的脑控机器人方法,通过对大型语言模型进行人工提示工程,该提示工程可以由相应的机器人工程师或者用户在了解机器人的感知模块和控制模块的基本调用后完成。并且可以针对应用场景的不同可以设置不同的提示,激发大型语言模型的推理能力。结合用户所给出的函数调用接口以及提示说明,语言模型生成可以以此为根据生成机器人不同模块的调用代码,根据用户所给出的复杂自然语言指令进行一定程度的推理和执行。在机器人搭配的硬件充足的情况下,允许机器人实现较复杂的任务。
-
公开(公告)号:CN117292693A
公开(公告)日:2023-12-26
申请号:CN202311592299.X
申请日:2023-11-27
Applicant: 安徽大学
Abstract: 本发明涉及动物识别技术领域,尤其涉及一种融入自注意力机制的CRNN珍稀动物识别与定位方法,通过将功率归一化倒谱系数和线性预测倒谱系数融合,得到混合特征,与传统的音频特征梅尔倒谱系数、伽马通频率倒谱系数相比,具有更好的鲁棒性、抗噪性,大大提高了在噪声及混响环境中的识别准确度,且不需要过多的计算,本发明通过残差网络来作为系统的识别和定位网络,可以避免梯度爆炸和梯度消失,同时可以训练更深的网络,通过融入自注意力机制层,弥补了卷积不能处理序列数据时捕捉长程依赖关系的缺点,提高网络的识别和定位精度。
-
公开(公告)号:CN116431005B
公开(公告)日:2023-09-12
申请号:CN202310667318.4
申请日:2023-06-07
Applicant: 安徽大学
Abstract: 本发明涉及无人机控制技术领域,尤其涉及一种基于改进移动端唇语识别的无人机控制方法及系统,通过采集人脸视频,并进行预处理,获得唇语图像数据,对唇语图像进行识别,得到对应的唇语指令,从唇语指令中获得给定位置,根据无人机的实际位置和给定位置,得到位置误差,判断位置误差是否达到预设的触发条件,再根据无人机期望位置,终端滑模控制算法计算得到控制无人机输出,可以提高无人机在通信受限下的实时控制稳定性和精度,减少通信负担,在通信受限,算力不足情况下完成唇语识别无人机控制。
-
公开(公告)号:CN116431005A
公开(公告)日:2023-07-14
申请号:CN202310667318.4
申请日:2023-06-07
Applicant: 安徽大学
Abstract: 本发明涉及无人机控制技术领域,尤其涉及一种基于改进移动端唇语识别的无人机控制方法及系统,通过采集人脸视频,并进行预处理,获得唇语图像数据,对唇语图像进行识别,得到对应的唇语指令,从唇语指令中获得给定位置,根据无人机的实际位置和给定位置,得到位置误差,判断位置误差是否达到预设的触发条件,再根据无人机期望位置,终端滑模控制算法计算得到控制无人机输出,可以提高无人机在通信受限下的实时控制稳定性和精度,减少通信负担,在通信受限,算力不足情况下完成唇语识别无人机控制。
-
公开(公告)号:CN119157542A
公开(公告)日:2024-12-20
申请号:CN202411066213.4
申请日:2024-08-05
Applicant: 安徽大学
IPC: A61B5/16 , A61B5/372 , A61B5/00 , A61N2/00 , G06N3/0464 , G06N3/0442 , G06N3/045 , G06N3/08 , G06F18/10 , G06F18/214 , G06F18/21 , G06F18/24 , G16H50/20
Abstract: 本发明的一种基于人机融合的抑郁症辅助识别方法及设备,包括获取EEG信号,对其数据预处理后进行LZ复杂度分析;然后,利用CNN‑LSTM置信度分析模型分析信号,用改良后的k折交叉验证进行模型评估判断和结果验证,将反馈得到的置信度和原始脑电图同LZ复杂度反馈给专家进行诊断和决策;最后,结合深度学习和神经导航系统确定TMS刺激靶点,用IAF确定刺激参数,进行TMS刺激并留存刺激位置及参数,再将刺激位置和参数展现给专家进行进一步的决策和判断。本发明的LZ复杂度可以作为辅助算法区分正常人与抑郁症患者。而本发明专注于LZ复杂度,同时LZ复杂度也可以作为CNN‑LSTM的输入,实现了前后衔接,浑然一体。
-
公开(公告)号:CN118521477A
公开(公告)日:2024-08-20
申请号:CN202410594485.5
申请日:2024-05-14
Applicant: 安徽大学
IPC: G06T3/4053 , H04N7/18 , H04N23/951 , G06T3/4046 , G06T5/70 , G06T7/70 , G06F18/213 , G06F18/24 , G06N3/0464 , G06N3/042 , A61B5/369 , A61B5/378
Abstract: 本发明的一种基于图像超分辨率重建算法的静默环境脑控方法,包括对脑电采集装置的脑电采集层进行校准,操作者观察视频图像信息,并将获取图像放入对抗卷积神经网络中进行超分辨率重建;信号处理单元接收并处理脑电信号,识别操作者真实控制指令并发送给无人机;无人机接收到动作指令并做出相应动作,将新的位置与飞行姿态信息回传,新的实际位置再与理论位置进行对比,判断无人机位置正确与否,再次执行获取图像信息、超分辨算法处理图像、指令传输与控制、信息回传与位置判断等步骤,直至所述无人机完成预设任务。本发明运用图像超分辨率重建算法进行处理,图像回传的影像失真模糊的问题也将得到有效解决,提高了回传影像的清晰度。
-
公开(公告)号:CN118276435B
公开(公告)日:2024-08-20
申请号:CN202410705499.X
申请日:2024-06-03
Applicant: 安徽大学
IPC: G05B11/42
Abstract: 本发明公开了一种面向温度强约束的聚合反应釜改进PID控制方法及系统,属于化工过程控制领域。本发明所述方法有效地解决传统的聚合反应釜升温阶段温度控制系统存在快速性和无超调难以兼顾的问题,通过在微分系数中引入非线性的约束项,并合理设置温度上限和约束因子,实现了控制聚合反应釜内部温度不超过期望温度上限的目的,能够用于不同聚合反应釜的不同工作状态,满足不同生产工艺的控制要求;该方法的特点是同时满足了温度控制响应速度快和没有超调的要求,控制效果好、具有一定抗干扰能力;通过对采集到的数据进行预处理,消除了异常数据带来的干扰,提升了算法的可靠性。
-
公开(公告)号:CN118357903B
公开(公告)日:2024-08-16
申请号:CN202410789869.2
申请日:2024-06-19
Applicant: 安徽大学
IPC: B25J9/00 , B25J9/16 , B07C5/02 , B07C5/36 , B65G45/18 , G06T7/80 , G06N3/006 , G06N3/0464 , G06V10/25 , G06V10/762 , G06V10/82
Abstract: 本发明涉及机械臂智能分拣技术领域,具体的说是一种多机械臂协同的多目标分拣方法,该方法包括如下步骤:搭建流水线多机械臂分拣系统,通过Yolov8算法对视觉机械臂所拍摄的RGB图像分别进行目标检测,得到Yolov8检测出的物体边界框后,结合其对应的深度图像,对该分拣场景进行仿真,构建LightGBM回归模型,训练并验证模型性能后,基于机械臂的预期分拣时间,对各机械臂进行任务分配和调度顺序优化,并最小化总分拣时间;使用粒子群算法优化机械臂调度过程;各机械臂获取抓取任务序列后,基于APF‑RRT算法进行多臂路径规划与避障;基于粒子群算法优化了机械臂任务分配与调度顺序,能有效减少机械臂之间因协同任务造成的相互等待,输出最优抓取序列以提升分拣效率。
-
公开(公告)号:CN118376345A
公开(公告)日:2024-07-23
申请号:CN202410806045.1
申请日:2024-06-21
Applicant: 安徽大学
IPC: G01L5/16 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了基于事件流数据的高速力测量和接触状态感知方法与装置,包括如下步骤:S1.柔性触觉装置的设计;S2.模型训练数据集的采集和卷积神经网络的训练;S3.使用事件相机对接触面进行观测获得事件流数据并对其进行裁切与过滤;S4.根据正事件数的变化趋势推断接触状态并缓存;S5.根据各个子区域内事件数的分布推断接触面积的大小并根据接触面积变化趋势纠正当前所处的接触状态;S6.根据当前接触状态判断是否需要更新接触区域力学信息。本发明解决了现有的柔性触觉传感器在对接触面的力学变化进行快速响应方面的不足和事件相机在观测处于静止状态的物体时无法输出有效数据进而无法判断接触情况的问题。
-
-
-
-
-
-
-
-
-