-
公开(公告)号:CN116338398A
公开(公告)日:2023-06-27
申请号:CN202310419752.0
申请日:2023-04-19
Applicant: 中国科学院上海微系统与信息技术研究所 , 安徽爱观视觉科技有限公司
Abstract: 本发明涉及一种基于双目立体视觉的弓网燃弧强度检测装置和方法,其中,装置包括:双目相机,用于从不同的角度同时对目标区域进行拍摄,获取目标区域图像;紫外探测装置,用于检测弓网燃弧产生的紫外光并将紫外光信号转换为电压信号;处理器,包括:图像处理模块,用于对所述目标区域图像进行处理,得到燃弧所在位置及对应三维坐标;计算模块,用于基于燃弧所在位置及对应三维坐标和所述紫外探测装置得到的电压信号计算燃弧强度。本发明可以有效地检测燃弧强度值,实现准确地判断接触线和碳滑板的损伤状况和对应的危害预警等级。
-
公开(公告)号:CN116433639A
公开(公告)日:2023-07-14
申请号:CN202310419749.9
申请日:2023-04-19
Applicant: 中国科学院上海微系统与信息技术研究所 , 安徽爱观视觉科技有限公司
Abstract: 本发明涉及一种基于双目视觉系统的受电弓燃弧检测方法和装置,其中,方法包括:采用双目相机对受电弓进行拍摄,获取双目图像,所述双目图像中包括受电弓与接触网;将所述双目图像送入第一yolov5目标检测模型中进行目标检测,得到受电弓与接触网的接触区域,以及受电弓与接触网的接触点;将所述双目图像送入第二yolov5目标检测模型中进行目标检测,检测出双目图像中的燃弧火花;对检测出双目图像中的燃弧火花进行三维重建,得到燃弧火花在空间的三维坐标;基于所述燃弧火花在空间的三维坐标计算所述燃弧火花和所述受电弓与接触网的接触点的距离,并根据距离滤除错误结果。本发明可以实现实时高精度的燃弧检测。
-
公开(公告)号:CN116342717A
公开(公告)日:2023-06-27
申请号:CN202310419747.X
申请日:2023-04-19
Applicant: 中国科学院上海微系统与信息技术研究所 , 安徽爱观视觉科技有限公司
Abstract: 本发明涉及一种基于线结构光的无公共视场的多相机标定方法,包括:利用空间中至少3个不同方向的平面标定装置来标定每个相机的内部参数;调整激光平面,使空间标定装置在相邻两台相机的有效成像区域内接到清晰的激光线条,其中,每台相机的成像次数不少于两组;在拍到的激光线条图像中,提取激光线条的能量中心坐标,利用每台相机不少于两条激光直线在各自的相机坐标系内计算拟合平面;重复上述步骤,得到多组拟合平面参数;根据得到的多组拟合平面参数,利用平面共面约束,求解相机之间的初始相对位置关系,并通过LM优化算法提高标定精度。本发明能够用较低的成本、在更多的场景中提供高精度的标定结果。
-
公开(公告)号:CN114648737B
公开(公告)日:2024-12-03
申请号:CN202011505571.2
申请日:2020-12-18
Applicant: 安徽爱观视觉科技有限公司 , 中国科学院上海微系统与信息技术研究所
IPC: G06V20/54
Abstract: 本发明公开一种地平面识别方法及装置,包括:对当前周期的左右目原始图像预处理得到第一稠密视差图;获取当前周期位姿参数;根据所述当前位姿参数对待旋转图像和所述第一稠密视差图仿射变换得到已旋转图像和第二稠密视差图,所述待旋转图像为预先设定的左目原始图像或右目原始图像;对所述已旋转图像和所述第二稠密视差图图像识别,得到地平面区域。本方法适用性强,可在车体震动的情况下,能够准确地对地平面识别,且在此基础上简化了基于视差图的检测算法,进一步提高了检测速度,可广泛应用于地面无人平台或自动驾驶辅助系统等。
-
公开(公告)号:CN114336067B
公开(公告)日:2025-05-09
申请号:CN202011050175.5
申请日:2020-09-29
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本发明提供一种适应强电磁环境的MEMS无线传感装置,所述MEMS无线传感装置包括频率选择超构表面,所述频率选择超构表面包括多个呈阵列周期性排列的单元胞。本发明的MEMS无线传感装置利用人工超构表面灵活的电磁场操控能力,可以实现正常透过无线通信信号,并阻断稳态电磁干扰、瞬态电磁干扰,突破了传统电子设备抑制电磁干扰技术的瓶颈,同时解决强电磁环境下MEMS无线传感装置的可靠性和无线通信的问题。适应超强电磁环境的超构表面集成MEMS无线传感技术可极大地推动电子器件设备的信息化、智能化发展,对我国能源安全、经济社会乃至国家安全都具有重要的意义。
-
公开(公告)号:CN118052841B
公开(公告)日:2025-05-06
申请号:CN202410070464.3
申请日:2024-01-18
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G06T7/20 , G06T7/10 , G06T7/50 , G06N3/0499 , G06N3/08
Abstract: 本发明涉及一种融合语义的无监督深度估计与视觉里程计方法和系统,其中,方法包括:接收视频序列;将所述视频序列输入至预测模型,得到预测结果;其中,所述预测模型包括:深度估计子网络,用于估计输入的目标图像对应的深度图;位姿估计子网络,用于估计输入的目标图像和源图像之间的相对位姿;语义分割子网络,用于对输入的目标图像和重建目标图像进行语义分割,得到用于构造语义重投影损失的目标图像语义分割结果和重建目标图像语义分割结果;语义掩码模块,用于根据目标图像语义分割结果构造语义掩码;重投影模块,用于根据深度图、相对位姿和语义掩码对源图像进行重投影操作,得到重建目标图像。本发明能够增强重投影损失的效用。
-
公开(公告)号:CN119919677A
公开(公告)日:2025-05-02
申请号:CN202411933696.3
申请日:2024-12-26
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G06V10/44 , G06V10/46 , G06V10/82 , G06V10/94 , G06N3/0455 , G06N3/0464 , G06N3/063
Abstract: 本发明涉及一种实时SuperPoint网络特征提取与描述方法及装置。其中方法包括:利用SuperPoint卷积神经网络模块对输入图像进行特征提取,并生成用于进行特征点提取的第一特征张量,以及用于进行描述子计算的第二特征张量;构建特征点提取模块基于所述第一特征张量提取特征点坐标,并实时输出所述特征点坐标和扫描坐标;构建描述子计算模块实时获取所述特征点坐标、所述扫描坐标,并根据所述特征点坐标和所述扫描坐标从所述第二特征张量中选择对应位置的张量数据进行描述子计算。本发明能够实现特征点提取和描述子计算的并行处理,提高了SuperPoint网络特征提取与描述的实时性。
-
公开(公告)号:CN119850913A
公开(公告)日:2025-04-18
申请号:CN202411914225.8
申请日:2024-12-24
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本发明涉及一种基于多相机装置的动态目标检测方法及系统。其中,动态目标检测方法应用于包括彩色相机、微光相机、红外相机、以及事件相机的多相机装置,包括以下步骤:获取设定时刻彩色相机、微光相机、以及红外相机拍摄的图像并分别进行目标检测,获得彩色相机发现的目标TC、微光相机发现的目标TL、以及红外相机发现的目标TI;获取所述设定时刻事件相机发现的视野范围内的动态事件图TE;基于目标TC、目标TL、以及目标TI与动态事件图TE的轮廓重合度确定是否发现动态目标。本发明能够适用于各种光照环境并排除背景对检测算法的影响,提高算法对虚假目标识别的鲁棒程度。
-
公开(公告)号:CN119850880A
公开(公告)日:2025-04-18
申请号:CN202411912451.2
申请日:2024-12-24
Applicant: 中国科学院上海微系统与信息技术研究所
IPC: G06T19/00 , G06T7/73 , G06V10/26 , G06V10/44 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/042 , G06N3/0464 , G06N3/0455 , G06N3/08
Abstract: 本发明涉及一种面向任务型机器人的高效场景表征方法,包括以下步骤:获取机器人捕获的不同视角的RGB图像帧及其深度信息;对每个图像帧进行全景分割获得2D语义信息和2D实例信息,并根据对应的深度信息向三维网格空间投影得到3D语义信息和3D实例信息;基于帧间相机位姿将各个图像帧的3D语义信息和3D实例信息融合到同一个世界坐标系下,进而根据融合后的3D语义信息和3D实例信息采用TSDF方法进行增量式建图,并在建图时基于语义信息和实例信息进行体素的融合更新,得到全景场景点云;基于所述全景场景点云,以其中所有实例为节点,以各个实例间的关系为边,预测获得3D场景图。本发明能够生成高效表征场景的三维语义场景图。
-
公开(公告)号:CN119739200A
公开(公告)日:2025-04-01
申请号:CN202411885489.5
申请日:2024-12-20
Applicant: 中国科学院上海微系统与信息技术研究所
Abstract: 本发明涉及一种面向多机器人协同的未知场景探索方法,具体包括局部探索阶段和全局探索阶段,在局部探索阶段中,各机器人在局部探索区域内进行探索,各机器人生成语义‑前沿视点,并针对所述语义‑前沿视点通过求解旅行商问题生成局部路径;在全局探索阶段,通过构建动态的拓扑图,将所述语义‑前沿视点存储至所述拓扑图的叶节点,并共享给全部的机器人,各机器人在离开所述局部探索区域时,考虑所述拓扑图内的叶节点,通过求解多旅行商问题生成全局路径,协调各机器人就近进入新的局部探索区域,实现多机器人协同探索。本发明能够实现高效的多机器人协同探索。
-
-
-
-
-
-
-
-
-