-
公开(公告)号:CN117011718A
公开(公告)日:2023-11-07
申请号:CN202311288015.8
申请日:2023-10-08
Applicant: 之江实验室 , 中国科学院东北地理与农业生态研究所
IPC: G06V20/10 , G06V10/764 , G06V10/42 , G06V10/44 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/0895 , G06N3/094
Abstract: 一种基于多元损失融合的植物叶片细粒度识别方法和系统,首先将植物叶片图像以九宫格的方式进行随机掩码完成图像增强,并与原图成对地输入到特征提取网络模型中,得到特征向量;将特征向量输入分类网络层中,并进行品种识别;将特征向量输入到对抗网络层中,进行二分类识别;将掩码图的特征向量输入到自编码网络模块中,进行图像复原的自监督学习;三项任务的损失函数共同监督并指导网络的训练;在自监督任务中掩码图像通过学习复原本身位置使特征提取网络关注到叶片局部特征,而原图在品种识别任务中使特征提取网络关注叶片原有形状信息和全局特征;采用对抗损失函数进行原图与增强图的辨别,预防分类模型过拟合到增强数据中。
-
公开(公告)号:CN116805393A
公开(公告)日:2023-09-26
申请号:CN202310577483.0
申请日:2023-05-22
Applicant: 之江实验室 , 中国科学院东北地理与农业生态研究所
IPC: G06V20/10 , G06V10/58 , G06V10/80 , G06V10/764 , G06V10/82 , G06V10/26 , G06N3/0455 , G06N3/048 , G06N3/08
Abstract: 一种基于3DUnet光谱‑空间信息融合的高光谱图像分类方法,包括:步骤一,获取高光谱摄像机对地面场景拍摄的三维图像数据以及对应像素级别的类别标注并做预处理;步骤二,对所述预处理后的Signal‑HSI信号进行样本分割;步骤三,对步骤二处理后的Patch利用3DUnet网络进行光谱特征提取及空间特征提取;步骤四,选对步骤三中的网络模型进行训练并保存训练后的参数;步骤五,利用训练好的网络模型,输入高光谱图像,预测出对应的像素类别。本发明还包括一种基于3DUnet光谱‑空间信息融合的高光谱图像分类系统。本发明通过不同层级的特征提取以及注意力机制,提高解码效率,实现高光谱图像像素级别的分类。
-
公开(公告)号:CN116797904A
公开(公告)日:2023-09-22
申请号:CN202310444502.2
申请日:2023-04-24
Applicant: 之江实验室 , 中国科学院东北地理与农业生态研究所
IPC: G06V10/82 , G06V10/774 , G06N3/08 , G06N3/0464 , G06V10/74 , G06V10/764 , G06N5/02
Abstract: 本发明公开一种图像识别不确定性知识蒸馏方法与系统,收集有标签训练图像样本;选定第一神经网络模型,使用训练图像样本进行训练,得到训练好的第一神经网络模型,输入训练样本图像得到第一神经网络模型中间层样本特征表达及输出的软标签信息;选定第二神经网络模型,对训练图像样本进行处理,得到中间层样本特征表达,与第一神经网络模型的中间层样本特征表达进行不确定性建模,得到第一损失函数;使用第一神经网络模型输出的软标签信息及训练图像样本,联合第一损失函数,更新第二神经网络模型的参数,得到训练好的第二神经网络模型,同时利用本发明第二神经网络模型对待处理图像进行图像识别处理,提高图像识别的准确度。
-
公开(公告)号:CN117058492A
公开(公告)日:2023-11-14
申请号:CN202311322535.6
申请日:2023-10-13
Applicant: 之江实验室 , 中国科学院东北地理与农业生态研究所
IPC: G06V10/774 , G06V10/764 , G06V10/82 , G06V20/70 , G06N3/09 , G06N5/04
Abstract: 一种基于学习解耦的两阶段训练病害识别方法和系统,其方法包括:步骤S1:采集待识别作物的图像样本,制作训练数据集;步骤S2:构造基于学习解耦的分类算法网络模型;步骤S3:对基于学习解耦的分类算法模型进行一阶段训练;步骤S4:固定部分权重,对基于学习解耦的分类算法模型进行二阶段训练;步骤S5:基于训练得到的基于学习解耦的分类算法模型进行推理,最终得到待分类目标叶片的病害种类和病害等级。本发明具有准确度高,标注成本极低,且可实现单模型对病害种类和病害等级进行细分类识别。
-
公开(公告)号:CN117011316A
公开(公告)日:2023-11-07
申请号:CN202311278665.4
申请日:2023-10-07
Applicant: 之江实验室 , 中国科学院东北地理与农业生态研究所
Abstract: 一种基于CT图像的大豆茎秆内部结构辨识方法和系统,该方法包括:步骤一,将大豆盆栽放入植物CT采集设备,利用micro‑CT设备对大豆植株进行从上而下的扫描,得到采集的大豆茎秆CT图像数据;步骤二,对采集的CT图像数据集进行数据增强,引入扩散模型对数据进行超分辨处理,获取更丰富的组织细节信息;步骤三,对CT图像进行分割,得到大豆茎秆内部的组织结构的分割图;步骤四,根据分割结果进行体积重建,获得网格化数据,获得分割区域的体积、表面积等参数。本发明利用CT技术对大豆全生命周期的茎秆内部组织进行捕获,避免了传统破坏式捕获大豆植株内部信息,能有效提升大豆植株茎秆内部结构辨识的细粒度,实现精准精细的表型识别。
-
公开(公告)号:CN116721412A
公开(公告)日:2023-09-08
申请号:CN202310406872.7
申请日:2023-04-17
Applicant: 之江实验室 , 中国科学院东北地理与农业生态研究所
IPC: G06V20/68 , G06V10/82 , G06V10/774 , G06V10/776 , G06V10/40 , G06N3/0464 , G06N3/09
Abstract: 一种自下而上的基于结构性先验的豆荚关键点检测方法,自定义不同类型豆荚中豆粒的关键点含义,构建了包含主干网络、豆粒位置置信度热力图子网络、部位亲和域子网络、结构先验子网络四部分的自下而上的豆粒关键点检测网络,可实现先利用位置置信度检测得到所有的豆粒位置,然后结合部位亲和域积分计算,利用匈牙利算法得到豆粒之间的最优匹配连接关系,从而提取到豆荚的数量和豆荚的类型。特别的,在训练阶段通过添加结构先验子网络,提升模型的准确率。还包括一种自下而上的基于结构性先验的豆荚关键点检测系统。本发明从豆荚形态上确定豆荚类型,可快速同时检测多个豆荚,并定位得到豆荚中每个豆粒的位置。
-
公开(公告)号:CN118364664B
公开(公告)日:2024-09-06
申请号:CN202410799004.4
申请日:2024-06-20
Applicant: 之江实验室
IPC: G06F30/20 , G06F119/08
Abstract: 基于数字孪生仿真的卫星能源与温度状态预测方法和系统,所述方法包括:设置卫星任务的时间参数;初始化仿真初始时刻的卫星运行状态参数;输入仿真时段内各仿真时刻卫星每个受光面的辐射强度和有效辐射面积;基于初始卫星运行状态参数以及卫星的各物理量之间的相互影响关系,进行能源、热控耦合仿真计算,得到当前仿真时刻的卫星运行状态参数;判断当前仿真时刻是否达到终止时刻,若是,则停止迭代,输出整个仿真时段内卫星状态仿真结果;若否,将初始卫星运行状态参数更新为计算得到的卫星运行状态参数,重新执行耦合仿真计算,直至满足迭代停止条件。
-
公开(公告)号:CN118364664A
公开(公告)日:2024-07-19
申请号:CN202410799004.4
申请日:2024-06-20
Applicant: 之江实验室
IPC: G06F30/20 , G06F119/08
Abstract: 基于数字孪生仿真的卫星能源与温度状态预测方法和系统,所述方法包括:设置卫星任务的时间参数;初始化仿真初始时刻的卫星运行状态参数;输入仿真时段内各仿真时刻卫星每个受光面的辐射强度和有效辐射面积;基于初始卫星运行状态参数以及卫星的各物理量之间的相互影响关系,进行能源、热控耦合仿真计算,得到当前仿真时刻的卫星运行状态参数;判断当前仿真时刻是否达到终止时刻,若是,则停止迭代,输出整个仿真时段内卫星状态仿真结果;若否,将初始卫星运行状态参数更新为计算得到的卫星运行状态参数,重新执行耦合仿真计算,直至满足迭代停止条件。
-
公开(公告)号:CN115040089B
公开(公告)日:2022-12-06
申请号:CN202210981128.5
申请日:2022-08-16
Abstract: 本发明涉及非接触式生理信号检测领域,尤其涉及一种基于深度学习的脉搏波峰值检测与分类的方法和装置,该方法包括:步骤一,利用血氧仪采集人体指尖的脉搏波信号,采用滑动窗口的方式进行分帧处理,得到若干段短信号;步骤二,将若干段短信号按照时间顺序排列,输入到关键点检测模块中进行峰值检测和整理得到所有峰值点;步骤三,将步骤二得到的峰值点及采集得到的整段脉搏波信号输入到分类模块中,通过判断信号的强度、波动和平涩程度来对脉搏波信号进行分类,并记录。本发明能够有效应用于基于脉搏波的生物识别系统中,并提高识别的准确率。
-
公开(公告)号:CN114677633B
公开(公告)日:2022-12-02
申请号:CN202210579638.X
申请日:2022-05-26
IPC: G06V20/40 , G06V20/52 , G06V40/10 , G06V10/82 , G06V10/80 , G06V10/74 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明公开了基于多部件特征融合的行人检测多目标跟踪系统及方法,首先,获取行人图像数据集并进行行人多部件标注;其次,构造并训练基于多部件特征融合的行人检测多目标跟踪系统,系统包括沙漏模块、目标尺寸回归模块、目标中心点偏移回归模块、目标中心点热度图模块和多部件特征融合模块;然后,基于所述训练得到的模型进行推理获取单帧行人检测结果及多帧的行人融合特征;其次,计算当前帧检测得到的行人特征与前一帧轨迹的融合特征的相似度;最终,利用所述相似度矩阵进行数据关联,生成当前帧的行人轨迹,并更新轨迹的特征。本方法耗时较低,且对遮挡问题鲁棒性较好。
-
-
-
-
-
-
-
-
-