-
公开(公告)号:CN119402604A
公开(公告)日:2025-02-07
申请号:CN202510016157.1
申请日:2025-01-06
Applicant: 安徽大学
IPC: H04N5/06
Abstract: 本发明公开了一种利用时间编码进行分布式事件相机同步方法,属于图像采集领域,旨在通过精确的时间编码来实现分布式事件相机采集系统的时间同步。该系统由北斗/GPS授时设备、事件相机以及FPGA板组成,通过北斗/GPS授时设备获取精确的时间信息,作为时间基准,并将这些时间信息进行二进制编码划分;再利用FPGA板对编码后的时间信息进行处理,生成九位含有时间信息的脉冲序列,将这些信号按照既定顺序触发输入至事件相机;事件相机记录下触发时的时间戳信息,通过分析提取其中的脉冲序列,实现事件相机的时间戳对齐,从而完成多个分布式事件相机之间的时间同步。
-
公开(公告)号:CN118842919B
公开(公告)日:2024-11-22
申请号:CN202411323294.1
申请日:2024-09-23
IPC: H04N19/587 , H04N23/95 , H04N19/172 , G06N3/0464
Abstract: 本发明公开了一种利用事件相机数据进行动态帧插补方法,该方法包含以下步骤:S1.使用FPGA同步事件相机和RGB相机数据;S2.对采集得到的事件流数据执行动态积分,以生成连续的事件积分图像序列;S3.对连续的事件帧预测出光流,利用估计的光流对关键帧进行扭曲变形,生成新帧;S4.使用合成方法直接从边界关键帧和事件序列中融合信息,预测新帧;S5.将合成插值结果、变形插值结果及光流估计结果输入至注意力网络,以优化并确定最终新帧,随后将新帧与原始帧融合,形成平滑连续的视频流;本发明有效解决了传统插帧技术在处理复杂动态场景时帧数固定和计算资源浪费的问题。
-
公开(公告)号:CN118828149A
公开(公告)日:2024-10-22
申请号:CN202411295499.3
申请日:2024-09-18
Abstract: 本发明公开了基于脉冲和事件融合数据的高速目标检测方法、系统及装置,该装置包括安装座和外罩,所述外罩内设置有用于特征点图像捕获用的事件相机和脉冲相机,所述事件相机和脉冲相机中部设置有主板箱,主板箱固定连接在外罩内,主板箱的两侧均设置有用于对事件相机和脉冲相机相对位置确定的控制组件。本发明能够根据具体的使用场景对事件相机和脉冲相机位置进行调整,事件相机和脉冲相机之间的安装位置关系,且因为两种相机在设计、功能和应用场景上存在差异,导致它们的安装位置也会有所不同,根据实际的需求对事件相机和脉冲相机位置调节,通过刻度指向标和刻度线的配合能够直观看出事件相机和脉冲相机位置关系。
-
公开(公告)号:CN118655767A
公开(公告)日:2024-09-17
申请号:CN202411133991.0
申请日:2024-08-19
Applicant: 安徽大学
IPC: G05B11/42
Abstract: 本发明涉及一种声源信息引导移动机器人跟踪控制方法,方法通过提取音频的幅值和相位特征作为输入特征,使用一种融入通道域注意力机制的卷积循环神经网络作为声音定位网络,应用时,声源定位信息使用调度控制协议SCP通过网络传输到被控机器人,通过对被控对象机器人进行建模并使用双闭环PID控制器得到机器人输入左右两轮电机的值,从而跟踪控制机器人到达预设位置,通过应用本发明中的方法,可以增强模型特征选择能力、提升模型鲁棒性,在实现机器人平滑、连贯运动的同时能够保持机器人对路径的精确跟踪,最后,通过引入调度控制协议SCP,可以提高数据传输效率、减少数据碰撞和重传所导致的带宽浪费。
-
公开(公告)号:CN118376345B
公开(公告)日:2024-08-20
申请号:CN202410806045.1
申请日:2024-06-21
Applicant: 安徽大学
IPC: G01L5/16 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了基于事件流数据的高速力测量和接触状态感知方法与装置,包括如下步骤:S1.柔性触觉装置的设计;S2.模型训练数据集的采集和卷积神经网络的训练;S3.使用事件相机对接触面进行观测获得事件流数据并对其进行裁切与过滤;S4.根据正事件数的变化趋势推断接触状态并缓存;S5.根据各个子区域内事件数的分布推断接触面积的大小并根据接触面积变化趋势纠正当前所处的接触状态;S6.根据当前接触状态判断是否需要更新接触区域力学信息。本发明解决了现有的柔性触觉传感器在对接触面的力学变化进行快速响应方面的不足和事件相机在观测处于静止状态的物体时无法输出有效数据进而无法判断接触情况的问题。
-
公开(公告)号:CN118230071A
公开(公告)日:2024-06-21
申请号:CN202410635588.1
申请日:2024-05-22
Applicant: 安徽大学
IPC: G06V10/764 , G06N3/045 , G06N3/0455 , G06N3/0475 , G06N3/094 , G06N3/096 , G06V10/44 , G06V10/52 , G06V10/774 , G06V10/80 , G06V10/82
Abstract: 本发明涉及图像检测技术领域,尤其涉及一种基于深度学习的摄像头脏污检测方法,通过设置三个输出头,实现不同的检测任务,不但能够判断摄像头被脏污覆盖的区域,同时能够实现对部分物体的分类以及对当前场景的分类,通过使用Segformer骨干网络进行特征提取,同时利用渐进特征融合模块进行不同维度特征的融合,相比传统的卷积神经网络,具有更强的上下文感知能力和多尺度特征表达能力,对准确检测和定位图像中大小不一、形态各异的脏污区域非常关键,这种全局上下文建模能力弥补了卷积网络的局限性,能够更准确地识别整个图像区域中的脏污。
-
公开(公告)号:CN117994339A
公开(公告)日:2024-05-07
申请号:CN202410136865.4
申请日:2024-01-31
Abstract: 本发明提供了一种基于事件相机和高速相机协同处理的目标检测方法,解决了现有空间配准方法步骤多,普适性低,或者目标检测方法的检测速度慢、精度低的问题。该方法包括:步骤1、对事件相机和高速相机进行时间同步;步骤2、对事件相机和高速相机进行位置标定,得到事件相机、高速相机的内外参数,对两台相机进行空间配准;步骤3、事件相机采集目标运动的事件流,高速相机采集目标运动的图像序列;步骤4、获取真实目标事件(t,x,y);步骤5、在图像序列中找到对应时间的目标图像;根据两台相机的外参数,以及(x,y),在目标图像中找到对应的(x1,y1);对目标图像对应的区域进行目标检测,获得目标精准位置。
-
公开(公告)号:CN117994338A
公开(公告)日:2024-05-07
申请号:CN202410136864.X
申请日:2024-01-31
Abstract: 本发明提供了基于事件相机和高速相机的高速目标位置预测方法,解决了无法实时计算高速运动目标的速度和位置,从而无法实时预测目标位置的问题。该方法步骤为:布置两个相机组并进行时间同步;标定相机组,得到各相机组中事件相机、高速相机的内参和外参;事件相机采集事件流,同时高速相机获取目标运动图像序列;粗定位目标,获取其在各事件相机中粗略的图像坐标和时间戳;在与各事件相机处于同一相机组的高速相机获取的运动图像序列中找对应时间戳的图像帧,精定位目标,获取其在各高速相机中精确的图像坐标;跟踪目标,获取其在各高速相机中随时间变化的精确图像坐标;计算目标在不同时刻的关键参数,完成对高速目标位置的预测。
-
公开(公告)号:CN116977449B
公开(公告)日:2024-03-15
申请号:CN202311241414.9
申请日:2023-09-25
IPC: G06T7/80
Abstract: 本发明公开了一种基于闪烁棋盘格的复眼事件相机主动标定方法,包括如下步骤:首先,利用LCD屏播放闪烁的棋盘格图案,构成一个特征点构造装置,然后将由事件相机组成的复眼装置固定于二维转台上,控制二维转台的转动,使得各个事件相机依次对准LCD屏,采集棋盘格图像信息,完成标定,同时根据转动的角度可建立不同事件相机坐标系之间的联系。本发明利用二维转台调整复眼事件相机位姿,采集不同角度的棋盘格事件信息,以达到简便,快速和低成本标定复眼事件相机的目的,且本发明使用高斯滤波的方法,减小了噪声影响,使得标定更加精确。
-
公开(公告)号:CN116994075B
公开(公告)日:2023-12-15
申请号:CN202311255809.4
申请日:2023-09-27
IPC: G06V10/764 , G06N3/0464 , G06N3/08 , G06T7/10 , G06T7/277 , G06T7/292 , G06V10/10 , G06V10/26 , G06V10/82 , G06V40/10
Abstract: 本发明公开了一种基于复眼事件成像的小目标快速预警与识别方法,包括步骤一:使用复眼事件相机进行大视场范围观测;步骤二:记录视场中出现的所有目标的事件成像,预识别与标记;步骤三:持续跟踪目标,预测目标轨迹;步骤四:保存中途丢失的目标的标记、事件成像及其轨迹;步骤五:根据分类结果使用对应的神经网络对目标进行精确识别;步骤六:记录并分析目标识别结果、事件成像变化过程以及目标轨迹。本发明通过将多孔径成像系统大视场高分辨率的特性和事件相机低数据带宽高速动态观测的特性与深度学习相结合,解决了目标检测中单一事件相机视场小、分辨率低、难以精确识别目标以及传统多孔径成像系统数据带宽过大无法实
-
-
-
-
-
-
-
-
-