-
公开(公告)号:CN103558856A
公开(公告)日:2014-02-05
申请号:CN201310591604.3
申请日:2013-11-21
Applicant: 东南大学
IPC: G05D1/02
Abstract: 本发明涉及移动机器人自主导航技术领域。本发明公开了一种动态环境下服务动机器人导航方法。包括如下步骤:1)利用室内环境下多台全局摄像机与机器人车载激光传感器实现人的位置跟踪;2)根据采集样本对特定室内环境场所下人的运动模式进行训练,并对人的运动趋势进行预测;3)根据人的当前位置和预测位置,与环境静态障碍栅格地图相融合,生成导航风险概率地图;4)采用全局路径规划-局部避障控制层次化结构的机器人导航运动控制器,实现机器人导航行为控制,通过控制确保机器人在与人共处的复杂动态环境下安全高效的导航行为。
-
公开(公告)号:CN103278170A
公开(公告)日:2013-09-04
申请号:CN201310183577.6
申请日:2013-05-16
Applicant: 东南大学
CPC classification number: G05D1/0274
Abstract: 本发明涉及移动机器人导航技术领域。本发明公开了一种基于显著场景点检测的移动机器人级联地图创建方法。包括如下步骤:1)根据移动机器人传感器采集的图像数据,在线检测显著场景对应的自然场景路标,生成全局地图中的拓扑节点;2)更新移动机器人位姿和局部栅格子地图;3)以显著场景点作为拓扑节点创建全局拓扑地图结构,在机器人轨迹闭合检测的基础上,引入加权扫描匹配法和松弛法对拓扑结构进行优化,确保拓扑地图的全局一致性。该发明适用于各类移动机器人在包含多个房间、走廊等区域的室内大范围环境中进行自主路径规划和导航应用。
-
公开(公告)号:CN112862974B
公开(公告)日:2024-02-23
申请号:CN202110267477.6
申请日:2021-03-12
Applicant: 东南大学
Abstract: 本发明公开了一种基于口腔扫描点云的牙齿贴面模型生成与厚度测量方法,包括以下步骤:1)将患者口腔的术前牙列扫描模型,将该模型在要治疗的牙上修改出目标牙,得出其目标牙列模型,然后将术前牙列扫描模型与修改后的目标牙列模型转为点云;2)将两者转换为点云后,根据两者不变部分进行点云配准,将目标牙叠加在对应的牙齿位置上;3)对两个点云做差,再通过封底最终得到该牙的增量部分;4)对牙的增量部分进行重建,对重建后的模型表面进行孔洞填补,获得表面光滑的贴面三维模型;5)在贴面点云上进行厚度测量,提醒医师修正贴面设计。本发明能够极大地提高备牙效率,减少医患之间沟通困难与矛盾。
-
公开(公告)号:CN117392493A
公开(公告)日:2024-01-12
申请号:CN202311372830.2
申请日:2023-10-23
Abstract: 本发明公开了一种融合凝视的视听协同物品指代表达理解与分割方法、系统、设备及存储介质,所述方法包括以下步骤:(1)通过对物品指代OCID‑Ref数据集进行预处理,构建指代意图欠明确表达的数据集OCID‑underRef;(2)构造凝视引导的视觉定位网络GVG;(3)在真实人机交互场景下通过部署凝视引导的视觉定位网络来实现交互式人机物品递送;本发明减轻了数据集采集与标注的人力工作量;能够在语言描述的物品指代意图欠明确的情况下,结合人的凝视注意力检测来克服不确定性,尽量避免了因物品指代意图模糊而造成的人机多次问答交互。
-
公开(公告)号:CN117260730A
公开(公告)日:2023-12-22
申请号:CN202311426975.6
申请日:2023-10-30
Abstract: 本发明涉及人机协同领域,公开一种人机物品交递意图预测方法,包括以下步骤:1)采集物品交递过程中的人机联合轨迹,划分空间子区域。2)训练三级核化运动基元模型。3)在预测阶段,通过相机采集含人脸部和桌面物品的场景图像,采用凝视估计网络预测凝视区域热力图,从凝视区域热力图中定位人注视的桌面某个物品。在被锁定物体上计算抓取姿态并变换到机械臂基坐标系下,控制机械臂抓取该物品。4)同时通过相机实时检测人手位置,采用训练好的三级核化运动基元模型来针对人手位置预测机械臂末端的响应位置,为机器人生成与人伸手动作当前位置及其趋势相协调的末端运动轨迹,从而完成机器人与人之间的交递动作。
-
公开(公告)号:CN112766561B
公开(公告)日:2023-11-17
申请号:CN202110053547.8
申请日:2021-01-15
Applicant: 东南大学
IPC: G06Q10/04 , G06F18/24 , G06N3/0455 , G06N3/0464 , G06N3/048 , G06N3/08 , G06N3/0442
Abstract: 本发明公开了一种基于注意力机制的生成式对抗轨迹预测方法,该方法设计了一种基于注意力机制的生成式对抗网络,并使用改进的损失函数来对生成式对抗网络进行训练。该方法首先利用基于长短时记忆网络LSTM构成的编码器模块从行人轨迹中提取行人运动的隐藏特征,然后利用一个基于注意力机制的池化模块对同一场景中的行人进行影响力权重分配以充分提取行人之间的交互信息,最后通过一个解码器模块输出网络预测的行人轨迹坐标。本发明提出的方法可以提高轨迹的预测精度,同时可以生成多条遵循社会规范的预测轨迹,其可以用于移动机器人的导航规划系统中,从而有助于机器人导航系统在与人共融的环境中规划更加合理有效的路径。
-
公开(公告)号:CN111695622B
公开(公告)日:2023-08-11
申请号:CN202010518643.0
申请日:2020-06-09
Applicant: 全球能源互联网研究院有限公司 , 国网江苏省电力有限公司电力科学研究院 , 国家电网有限公司 , 东南大学
IPC: G06V10/774 , G06V10/764 , G06V10/82 , G06N3/08 , G06Q50/06
Abstract: 本发明公开了一种变电作业场景的标识模型训练方法、标识方法及装置,其中,变电作业场景的标识方法包括:采集待测区域中不同子区域的连续图像,建立图像数据集,从图像数据集中提取关键帧图像,并根据关键帧图像进行目标检测,获取关键帧图像的物体信息;对关键帧图像进行图像分类,确定各子区域的关键帧图像的场景信息;根据物体信息及场景信息确定待测区域的物体特征、场景特征及历史场景特征;根据物体特征、场景特征及历史场景特征及预设的场景标识模型进行场景标识,生成目标场景信息。通过实施本发明,避免了因单一信息来源而导致场景误分类,提高了场景识别的准确性。
-
公开(公告)号:CN116485753A
公开(公告)日:2023-07-25
申请号:CN202310447529.7
申请日:2023-04-24
Applicant: 东南大学
IPC: G06T7/00 , G06T7/10 , G06T3/40 , G06T5/50 , G06V10/26 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0442 , G06N3/09
Abstract: 本发明涉及智能磨削中工件焊缝检测与分割领域,公开一种支持增量式学习的焊缝图像交互式分割方法,包括以下步骤:1)构建基于边界监督的交互式焊缝分割网络,包含基本语义分割模块、边界监督模块和融合模块;2)获取一批焊缝图像样本及精确标注,预处理后送入网络训练得到初始分割模型;3)在每次实际工业现场采集新的焊缝样本,通过选框和选点的交互方式确定焊缝,利用当前的交互式焊缝分割网络得到焊缝分割结果;4)将新样本及其修正后的标注送入网络进行多轮增量式训练提升分割模型性能;5)对分割出来的焊缝进行轨迹参数化描述,为焊缝打磨机器人规划打磨路径。本发明可用于提取工件表面的焊缝并引导机器人对其进行铣削打磨。
-
公开(公告)号:CN111144207B
公开(公告)日:2023-07-07
申请号:CN201911146615.4
申请日:2019-11-21
Applicant: 东南大学
IPC: G06V40/10 , G06V10/774 , G06V10/764 , G06V10/75 , G06T5/00 , G06T5/40 , G06T7/50 , G06T7/80 , G06T7/90
Abstract: 本发明公开了一种基于多模态信息感知的人体检测和跟踪方法,包括:彩色相机和深度相机标定与数据滤波处理;基于多模态信息感知的人体检测,分别在彩色图像和深度图像中检测人的身体和头部,依据头部和身体的空间比例信息融合两个检测结果;基于多模态信息感知的人体跟踪,使用核化相关滤波跟踪算法分别在彩色图像和深度图像中跟踪身体和头部,并建立跟踪对象的模型;利用跟踪对象模型和头身比的空间约束完善跟踪机制。本发明方法基于多模态信息感知,克服了仅基于视觉的目标检测和跟踪方法的缺陷,在室内服务机器人领域具有广泛的应用,有益于人机交互作业和用户跟随等功能。
-
公开(公告)号:CN110285813B
公开(公告)日:2022-11-25
申请号:CN201910588551.7
申请日:2019-07-01
Applicant: 东南大学
IPC: G01C21/20
Abstract: 发明公开了一种室内移动机器人人机共融导航装置及方法。该装置包括:行人建模模块、动态代价地图、全局路径规划器、机器人和室内视觉传感器:行人建模模块用于将行人感知信息转换为全局路径规划器搜索图需要的代价地图;动态代价地图为全局路径规划器提供未来时刻的社会约束信息;全局路径规划器是整个系统的核心,负责接收导航目标位姿和AMCL定位信息,采用“规划‑预测‑执行”时序周期进行动态规划,在每个规划周期基于动态代价地图构建搜索图计算当前规划周期最佳的规划结果;机器人和室内视觉传感器负责全局环境感知,此外机器人移动底盘接收底层运动指令进行移动导航。本发明可以有效、灵活地运用于实际室内环境。
-
-
-
-
-
-
-
-
-