-
公开(公告)号:CN112445728A
公开(公告)日:2021-03-05
申请号:CN202011373977.X
申请日:2020-11-30
Applicant: 中科院软件研究所南京软件技术研究院
Abstract: 本发明公开了一种支持多种硬件接口的机器人开发板ROS通讯系统,包括虚拟网络中间件和虚拟适配器;所述虚拟网络中间件用于将对应线路的不同类型的硬件接口虚拟成网络接口,通过虚拟IP支持原生ROS通讯;所述虚拟适配器对接收到的通讯数据进行识别,如果是ROS数据,将原本的网路线路调用嫁接到相应线路编号的虚拟线路上,采用对应的硬件接口本地回环接收到的通讯数据至共享内存,如果不是ROS数据,按照该硬件接口的正常功能传输至外部程序。本发明能够根据嵌入式开发板的接口设计和使用情况灵活配置任意接口用于ROS通讯,极大地方便了低成本和低功耗ROS开发板的设计,同时也有利于开发板的小型化。
-
-
公开(公告)号:CN112445728B
公开(公告)日:2023-07-21
申请号:CN202011373977.X
申请日:2020-11-30
Applicant: 中科院软件研究所南京软件技术研究院
Abstract: 本发明公开了一种支持多种硬件接口的机器人开发板ROS通讯系统,包括虚拟网络中间件和虚拟适配器;所述虚拟网络中间件用于将对应线路的不同类型的硬件接口虚拟成网络接口,通过虚拟IP支持原生ROS通讯;所述虚拟适配器对接收到的通讯数据进行识别,如果是ROS数据,将原本的网路线路调用嫁接到相应线路编号的虚拟线路上,采用对应的硬件接口本地回环接收到的通讯数据至共享内存,如果不是ROS数据,按照该硬件接口的正常功能传输至外部程序。本发明能够根据嵌入式开发板的接口设计和使用情况灵活配置任意接口用于ROS通讯,极大地方便了低成本和低功耗ROS开发板的设计,同时也有利于开发板的小型化。
-
公开(公告)号:CN112860316A
公开(公告)日:2021-05-28
申请号:CN202110178098.X
申请日:2021-02-08
Applicant: 中科院软件研究所南京软件技术研究院
IPC: G06F8/76
Abstract: 本发明公开了一种openEular开源系统的内核及BSP移植方法,包括:从芯片对应的sdk中获取相关patch1集合,该patch1集合包括所有支持芯片各模块功能的程序源代码系列patch;对patch1集合进行分析,剔除其中已经合并至openEular开源系统中的部分代码,生成patch2集合;采用git工具将patch2集合中每条patch进行合并处理;将处理结果合并到openEular开源系统中,在此基础上对系统进行编译和调试。本发明可以将不同芯片厂家的sdk移植到openEuler操作系统上,并且可以最大程度减少错误的概率,降低使用者的开发门槛,从而使得开发人员可以快速进入工作,提高整体的开发效率,为推动国产操作系统openeuler的广泛应用提供技术动力。
-
公开(公告)号:CN112486171A
公开(公告)日:2021-03-12
申请号:CN202011374292.7
申请日:2020-11-30
Applicant: 中科院软件研究所南京软件技术研究院
IPC: G05D1/02 , G05B19/042
Abstract: 本发明公开了一种基于视觉的机器人避障方法,其特征在于,所述避障方法包括以下步骤:构建全局定位环境库;对机器人当前位置的视觉图像和激光信息进行处理,提取其中特征信息,在全局定位环境库中进行检索与匹配,确定机器人的实时位姿和对应的视觉特征地图,在视觉定位地图上进行全局定位,生成局部代价地图;采用深度视觉传感器获取包含障碍物信息的点云数据,对点云数据进行稀疏化处理,提取关键有效数据,解析提取数据,结合激光数据得到三维方向上的障碍物信息,在局部代价地图中标记出障碍物位置信息。本发明能够同时实现全局定位和三维避障的功能,具有占用面积小、运算轻量化、高性能低功耗等优点。
-
-
公开(公告)号:CN112486171B
公开(公告)日:2022-08-30
申请号:CN202011374292.7
申请日:2020-11-30
Applicant: 中科院软件研究所南京软件技术研究院
IPC: G05D1/02 , G05B19/042
Abstract: 本发明公开了一种基于视觉的机器人避障方法,其特征在于,所述避障方法包括以下步骤:构建全局定位环境库;对机器人当前位置的视觉图像和激光信息进行处理,提取其中特征信息,在全局定位环境库中进行检索与匹配,确定机器人的实时位姿和对应的视觉特征地图,在视觉定位地图上进行全局定位,生成局部代价地图;采用深度视觉传感器获取包含障碍物信息的点云数据,对点云数据进行稀疏化处理,提取关键有效数据,解析提取数据,结合激光数据得到三维方向上的障碍物信息,在局部代价地图中标记出障碍物位置信息。本发明能够同时实现全局定位和三维避障的功能,具有占用面积小、运算轻量化、高性能低功耗等优点。
-
公开(公告)号:CN112596064A
公开(公告)日:2021-04-02
申请号:CN202011373978.4
申请日:2020-11-30
Applicant: 中科院软件研究所南京软件技术研究院
Abstract: 本发明公开了一种激光与视觉融合的一体化室内机器人全局定位方法,包括:接收激光定位模块提供的机器人位姿信息,采用视觉全局定位模块和激光全局定位模块同时采集视觉图像和激光图像,建立全局定位环境库;利用机器人当前位置的视觉图像和激光信息,在全局定位环境库中进行检索与匹配,确定机器人的位姿。本发明能够支持在复杂的环境中实现定位,如人群密集处,结构相似、无结构、无纹理等环境,同时有效结合激光雷达与视觉的信息,大幅提高机器人全局环境定位的鲁棒性,全局定位时间短,运算量小,解决了常见视觉SLAM算法对硬件要求高的问题,摆脱了造价昂贵的工控机,节约了硬件成本的同时降低了电池消耗。
-
-
-
-
-
-
-