-
公开(公告)号:CN115761009A
公开(公告)日:2023-03-07
申请号:CN202211540315.6
申请日:2022-12-02
Applicant: 安徽师范大学 , 哈尔滨工业大学芜湖机器人产业技术研究院
Abstract: 本发明涉及计算机视觉技术领域,特别是涉及一种基于非线性优化的无共同视野的相机外参标定方法。包括:对待标定相机的内部参数进行预标定,获得所述待标定相机的内部参数矩阵;以所述内部参数矩阵作为输入,通过标定所述待标定相机和主相机的惯性测量单元的外部参数矩阵,通过主相机的惯性测量单元为中介,得到所述待标定相机在选定世界坐标系下的第一外部参数矩阵;根据所述内部参数矩阵,对所述第一外部参数矩阵进行优化,获得所述待标定相机的第二外部参数矩阵。本发明利用多相机之间的特征匹配来优化相机的初始外参,运算速度快,而且成本低,既可以提高标定精度,又解决了标定过程的繁琐和场景失效问题。
-
公开(公告)号:CN118349002A
公开(公告)日:2024-07-16
申请号:CN202410635960.9
申请日:2024-05-22
Applicant: 安徽师范大学
Abstract: 本发明提供了一种基于一体化预测控制的多移动机器人协同避障方法,涉及多移动机器人协同避障领域,周期性采集机器人队列中各机器人当前时刻的状态量,基于当前时刻的状态量及控制量的增量获取当前时刻的输出矩阵;遇到障碍物时,实时采集障碍物的信息,计算出当前时刻的避障功能函数;根据当前时刻的输出矩阵以及避障功能函数构建目标函数,输出目标函数最小时对应的控制增量矩阵,该控制增量矩阵由机器人队列中所有机器人当前时刻的控制量增量组成;从控制量增量矩阵中读取机器人队列中各机器人当前时刻控制量的增量,预测得到下一时刻的控制量,通过迭代,实现多移动机器人的协同避障。本发明的有益效果是:降低了成本,提高了协同避障能力。
-
公开(公告)号:CN116740755A
公开(公告)日:2023-09-12
申请号:CN202310449986.X
申请日:2023-04-23
Applicant: 安徽师范大学
IPC: G06V40/10 , G06V10/82 , G06V10/44 , G06N3/0464 , G06N3/08
Abstract: 本发明提供了一种基于改进YOLOv5的远距离小尺度行人检测方法及设备,该方法为解决当行人距离相机较远时,行人在照片中尺寸较小,检测精度低且漏检率高等问题,提出了改进YOLOv5的远距离小尺度行人检测算法,首先利用通道注意力模块与空间注意力模块增强模型的特征表达能力;同时使用自适应加权FPN‑PAN网络结构进行特征聚合,使得细粒度信息与语义信息充分的融合,为每一层的检测头输出更适合的特征图;使用双线性插值进行上采样,一定程度上防止了语义信息的丢失;对YOLOv5的检测头解耦为两分支检测头,进一步提高了检测精度。本发明的有益效果是:与原始YOLOv5相比,改进后的方法具有更好的检测精度,拥有更强的远距离小尺度行人的检测能力。
-
-