-
公开(公告)号:CN117252930B
公开(公告)日:2024-05-28
申请号:CN202311222096.1
申请日:2023-09-21
Applicant: 之江实验室
IPC: G06T7/80
Abstract: 本发明公开了一种大型展厅多相机监控系统内外参标定方法和系统,包括以下步骤:获取多相机视频数据作为标定数据;对标定数据进行预处理;进行单目相机标定得到相机内参初值;使用链式法进行相机外参初步估计得到每个相机相对于世界坐标系的位姿作为相机外参初值;进行标定板位姿初步估计得到每个特定姿态下的标定板位姿初值;构造总重投影误差作为目标函数并引入基于畸变参数的正则项;使用相机内参初值、相机外参初值和标定位板位姿初值,最小化带有正则项的目标函数以求解全局优化问题,得到最优相机内外参数。本发明能够减小人工成本和风险,提高相机内外参标定的准确性,适用于高空悬挂或处于开阔空间中的多相机系统内外参标定应用场景。
-
公开(公告)号:CN117058492B
公开(公告)日:2024-02-27
申请号:CN202311322535.6
申请日:2023-10-13
Applicant: 之江实验室 , 中国科学院东北地理与农业生态研究所
IPC: G06V10/774 , G06V10/764 , G06V10/82 , G06V20/70 , G06N3/09 , G06N5/04
Abstract: 一种基于学习解耦的两阶段训练病害识别方法和系统,其方法包括:步骤S1:采集待识别作物的图像样本,制作训练数据集;步骤S2:构造基于学习解耦的分类算法网络模型;步骤S3:对基于学习解耦的分类算法模型进行一阶段训练;步骤S4:固定部分权重,对基于学习解耦的分类算法模型进行二阶段训练;步骤S5:基于训练得到的基于学习解耦的分类算法模型进行推理,最终得到待分类目标叶片的病害种类和病害等级。本发明具有准确度高,标注成本极低,且可实现单模型对病害种类和病害等级进行细分类识别。
-
公开(公告)号:CN117011718B
公开(公告)日:2024-02-02
申请号:CN202311288015.8
申请日:2023-10-08
Applicant: 之江实验室 , 中国科学院东北地理与农业生态研究所
IPC: G06V20/10 , G06V10/764 , G06V10/42 , G06V10/44 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/0895 , G06N3/094
Abstract: 据中。一种基于多元损失融合的植物叶片细粒度识别方法和系统,首先将植物叶片图像以九宫格的方式进行随机掩码完成图像增强,并与原图成对地输入到特征提取网络模型中,得到特征向量;将特征向量输入分类网络层中,并进行品种识别;将特征向量输入到对抗网络层中,进行二分类识别;将掩码图的特征向量输入到自编码网络模块中,进行图像复原的自监督学习;三项任务的损失函数共同监督并指导网络的训练;在自监督任务中掩码图像通过学习复原本身位置使特征提取网络关注到叶片局部特征,而原图在品(56)对比文件王泽宇 等.基于多模态特征的无监督领域自适应多级对抗语义分割网络《.通信学报》.2022,第43卷(第12期),157-171.齐爱玲 等.基于中层细微特征提取与多尺度特征融合细粒度图像识别《.计算机应用》.2023,第43卷(第8期),2556-2563.Gang Li 等.Self-supervised VisualRepresentation Learning for Fine-GrainedShip Detection《.2021 IEEE 4thInternational Conference on InformationSystems and Computer Aided Education(ICISCAE)》.2021,67-71.
-
公开(公告)号:CN116597245A
公开(公告)日:2023-08-15
申请号:CN202310401225.7
申请日:2023-04-13
IPC: G06V10/774 , G06V10/82 , G06V10/74 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种图像识别模型训练方法与系统、图像处理方法与系统,在预训练第一神经网络模型基础上,通过训练图像样本在第一神经网络模型和第二神经网络模型中间层的第一中间层特征表达与第二中间层特征进行通道匹配,并基于匹配通道之间的知识蒸馏得到第一损失函数,同时还结合基于预测类别标签信息和软标签构建的第二损失函数以及基于预测类别标签信息和真实标签构建的第三损失函数对第二神经网络模型进行联合训练,这样可以实现两模型通道之间的自动匹配,增强第二神经网络模型获取的知识表达的判别性,进而提升图像识别精度。基于该图像识别模型进行的图像识别也大大提升了图像识别准确性。
-
公开(公告)号:CN115019215B
公开(公告)日:2022-12-09
申请号:CN202210947014.9
申请日:2022-08-09
Applicant: 之江实验室
IPC: G06V20/17 , G06V20/10 , G06V10/82 , G06V10/764 , G06V10/26 , G06V10/778
Abstract: 本发明公开一种基于高光谱图像的大豆病虫害识别方法和装置,该方法包括:步骤一,利用无人机搭载的高光谱相机与RGB相机采集高光谱数据集及其对应的RGB数据集;步骤二,对采集的高光谱数据集进行数据增广;步骤三,对RGB图像进行植株区域分割后与对应的高光谱图像进行像素点相乘得到含植株区域的图像,对该图像进行预处理计算出各类别平均光谱特性曲线;步骤四,输入高光谱数据集至大豆病虫害识别网络模型,采用课程学习方式以及各类别平均光谱特性曲线进行模型训练;步骤五,采用训练好的大豆病虫害识别网络模型,对采集输入的高光谱图像进行预测分类,输出最终预测的虫害类别。本发明能有效提高大豆病虫害识别的准确度。
-
公开(公告)号:CN117934624A
公开(公告)日:2024-04-26
申请号:CN202311729964.5
申请日:2023-12-15
Applicant: 之江实验室
Abstract: 本发明公开了一种基于平面单应性矩阵的相机位姿校正方法和系统,方法包括以下步骤:获取相机细微运动前后两张图像并利用已知相机内参对两张图像去畸变;对去畸变后的两张图像提取并匹配特征点得到初始二维坐标点对集合;使用对极几何约束和平面约束对二维坐标点对进行过滤筛选得到优选二维坐标点对集合;基于优选二维坐标点对集合和平面单应性矩阵通过构建非线性优化问题求解相机的微细刚性运动;根据求解的相机的微细刚性运动进行相机位姿校正。本发明能自动估计相机的任意微细刚性运动,包括相机的旋转和平移,无需任何标定物或标记物,减少大量人工、时间和硬件成本,尤其适用于固定场景下对已标定的多相机系统进行相机位姿校正。
-
公开(公告)号:CN117252930A
公开(公告)日:2023-12-19
申请号:CN202311222096.1
申请日:2023-09-21
Applicant: 之江实验室
IPC: G06T7/80
Abstract: 本发明公开了一种大型展厅多相机监控系统内外参标定方法和系统,包括以下步骤:获取多相机视频数据作为标定数据;对标定数据进行预处理;进行单目相机标定得到相机内参初值;使用链式法进行相机外参初步估计得到每个相机相对于世界坐标系的位姿作为相机外参初值;进行标定板位姿初步估计得到每个特定姿态下的标定板位姿初值;构造总重投影误差作为目标函数并引入基于畸变参数的正则项;使用相机内参初值、相机外参初值和标定位板位姿初值,最小化带有正则项的目标函数以求解全局优化问题,得到最优相机内外参数。本发明能够减小人工成本和风险,提高相机内外参标定的准确性,适用于高空悬挂或处于开阔空间中的多相机系统内外参标定应用场景。
-
公开(公告)号:CN116992919A
公开(公告)日:2023-11-03
申请号:CN202311269915.8
申请日:2023-09-28
Applicant: 之江实验室 , 中国科学院东北地理与农业生态研究所
IPC: G06N3/042 , G06N3/0464 , G06N3/0499 , G06N3/084 , G16B40/00 , G06F18/213 , G06F18/22
Abstract: 本发明公开了一种基于多组学的植物表型预测方法和装置,该方法基于图卷积神经网络,将多组学如基因组、转录组、代谢组的数据作为图节点,不同组学之间的关联程度作为图的边来构建每个植株的图结构数据,将构建的图结构数据输入图卷积神经网络中,提取节点特征,通过Transformer网络更新节点特征,节点特征拼接后输入全连接层,输出表型预测值,利用整个图结构融合多组学特征实现表型的预测。本发明创新性的利用图卷积神经网络结合Transformer网络实现基因到表型的预测,并利用多组学构建图结构融合多组学数据实现精准表型预测,在一定程度上解决只用单一组学表型预测不准的问题,提高了表型预测的效果。
-
公开(公告)号:CN115861858B
公开(公告)日:2023-07-14
申请号:CN202310122727.6
申请日:2023-02-16
Applicant: 之江实验室
IPC: G06V20/17 , G06V20/10 , G06V10/26 , G06V10/764 , G06V10/82 , G06V10/80 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及图像识别技术、农业育种领域,尤其涉及一种基于背景过滤的小样本学习农作物冠层覆盖度计算方法,该方法包括以下步骤:步骤S1:利用无人机载具获取待计算的田间高空俯拍RGB图像数据,构建支持数据集和查询数据集;步骤S2:构造并训练背景分割网络模型;步骤S3:基于训练得到的背景分割网络模型进行推理,结合绿色特征指数得到背景指数图;步骤S4:构造并训练小样本分割网络模型;步骤S5:基于训练得到的小样本分割网络模型进行推理,集合背景指数图得到农作物的冠层覆盖区域,并基于冠层覆盖区域计算冠层覆盖度。本发明具有准确度高,标注成本极低,且对农作物类冠层覆盖度计算具有通用性。
-
公开(公告)号:CN115861858A
公开(公告)日:2023-03-28
申请号:CN202310122727.6
申请日:2023-02-16
Applicant: 之江实验室
IPC: G06V20/17 , G06V20/10 , G06V10/26 , G06V10/764 , G06V10/82 , G06V10/80 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及图像识别技术、农业育种领域,尤其涉及一种基于背景过滤的小样本学习农作物冠层覆盖度计算方法,该方法包括以下步骤:步骤S1:利用无人机载具获取待计算的田间高空俯拍RGB图像数据,构建支持数据集和查询数据集;步骤S2:构造并训练背景分割网络模型;步骤S3:基于训练得到的背景分割网络模型进行推理,结合绿色特征指数得到背景指数图;步骤S4:构造并训练小样本分割网络模型;步骤S5:基于训练得到的小样本分割网络模型进行推理,集合背景指数图得到农作物的冠层覆盖区域,并基于冠层覆盖区域计算冠层覆盖度。本发明具有准确度高,标注成本极低,且对农作物类冠层覆盖度计算具有通用性。
-
-
-
-
-
-
-
-
-