-
公开(公告)号:CN103955499A
公开(公告)日:2014-07-30
申请号:CN201410163045.0
申请日:2014-04-22
Applicant: 北京航空航天大学
CPC classification number: G06F17/30787
Abstract: 本发明公开了一种基于即时计算与动态追踪的视觉体验增强方法,根据图像边缘提取、轮廓匹配、模式匹配、SIFI特征检测与比较来进行图像的多场景适应性匹配,识别图像,反馈图片对应的动态信息,在移动端播放,同时根据图像主体判断与识别来锁定图像,跟踪主体的位置,通过动态信息播放,动态信息元件移动修正,使动态信息正确的覆盖图像,达到动态信息替换静态信息的目的,实现动态的视觉体验。该方法以动态信息“替换”静态信息,使动态信息“融入现实”从而实现视觉体验增强的效果,搭配各种移动终端载体,可广泛应用于平面媒体,博物馆,教育,旨在大幅度提升静态图片所携带的信息量,丰富图像表现形式,增强动态的视觉体验。
-
公开(公告)号:CN103955499B
公开(公告)日:2018-02-02
申请号:CN201410163045.0
申请日:2014-04-22
Applicant: 北京航空航天大学
Abstract: 本发明公开了一种基于即时计算与动态追踪的视觉体验增强方法,根据图像边缘提取、轮廓匹配、模式匹配、SIFI特征检测与比较来进行图像的多场景适应性匹配,识别图像,反馈图片对应的动态信息,在移动端播放,同时根据图像主体判断与识别来锁定图像,跟踪主体的位置,通过动态信息播放,动态信息元件移动修正,使动态信息正确的覆盖图像,达到动态信息替换静态信息的目的,实现动态的视觉体验。该方法以动态信息“替换”静态信息,使动态信息“融入现实”从而实现视觉体验增强的效果,搭配各种移动终端载体,可广泛应用于平面媒体,博物馆,教育,旨在大幅度提升静态图片所携带的信息量,丰富图像表现形式,增强动态的视觉体验。
-
公开(公告)号:CN106681330A
公开(公告)日:2017-05-17
申请号:CN201710061225.1
申请日:2017-01-25
Applicant: 北京航空航天大学
IPC: G05D1/02
CPC classification number: G05D1/0242 , G05D1/0246 , G05D1/0255 , G05D1/0257 , G05D2201/0217
Abstract: 本发明提供了一种基于多传感器数据融合的机器人导航方法及装置,包括:根据激光雷达传感器采集到的数据和编码器数据,构建总体环境地图;实时根据激光雷达传感器、加速度计传感器、陀螺仪传感器和磁强计传感器采集的数据、总体环境地图、以及编码器数据,获得机器人在总体环境地图中的当前位置;实时根据总体环境地图和机器人的当前位置,获得机器人从当前位置到目标位置的规划路线;根据当前位置和规划路线,利用激光雷达传感器、深度摄像头、超声波传感器和红外传感器采集的数据、以及编码器数据,控制机器人避开障碍物移动。本方案在合理利用传感器实现机器人导航的基础上,灵活应用于多种场景,并且兼顾成本,能够实现较好的自主导航效果。
-
-