-
公开(公告)号:CN112257683A
公开(公告)日:2021-01-22
申请号:CN202011417659.9
申请日:2020-12-07
Applicant: 之江实验室
Abstract: 本发明公开了一种面向车辆运行轨迹监测的跨镜追踪方法,该方法包括采用生成对抗网络扩充车辆视频数据集,并在扩充后的数据集上训练基于轻量化卷积神经网络的车辆检测模型;将车辆检测模型部署到所有摄像头上,并创建摄像头间的位置关联字典;采用车辆检测模型提取摄像头中拍摄到的车辆的表观特征及在镜头内的连续位置,根据车辆的移动方向预测出车辆可能出现的下一组摄像头;将车辆的表观特征广播至下一组摄像头中,并根据表观特征在下一组摄像头中对车辆进行追踪,最终完成车辆的跨镜追踪。本发明所采用的跨镜追踪方法,能够实现对车辆的运行轨迹进行实时监测,当发现被监测车辆脱离预设路线时发出预警,可以协助监管人员快速排查被监测车辆。
-
公开(公告)号:CN111507317A
公开(公告)日:2020-08-07
申请号:CN202010613767.7
申请日:2020-06-30
Applicant: 之江实验室
Abstract: 本发明公开了一种基于视觉的旋转设备作业手套佩戴检测方法及系统,包括:获取生产车间中实时生成的监控视频图像,在监控视频图像中绘制凸多边形规则框,使得整个旋转设备落于规则框内;基于人体目标检测神经网络模型对监控视频图像进行人体目标检测,获得目标人体;基于人体骨骼关键点检测神经网络模型对目标人体进行人体关键点检测,获得处于规则框内的目标人体的双手关键点;对双手关键点进行区域分割,得到感兴趣区域,并对感兴趣区域进行初始分类;对初始分类后的感兴趣区域进行跟踪,并通过联合投票算法得到感兴趣区域的最终分类结果。本发明可以降低漏检,提高手套检测及分类的准确率,并通过多线程流水线处理模式降低整个处理过程的耗时。
-
公开(公告)号:CN111368815A
公开(公告)日:2020-07-03
申请号:CN202010467045.5
申请日:2020-05-28
Applicant: 之江实验室
Abstract: 本发明提供了一种基于多部件自注意力机制的行人重识别方法,该方法首先预训练深度卷积神经网络骨干模型;然后对骨干模型进行分支后构建多部件自注意力网络,获得多部件自注意力特征;接着将多部件自注意力特征输入分类器,联合训练最小化交叉熵损失和度量损失;最后将测试集图片输入训练好的模型,融合输出的部件特征获得整体特征,经度量排序实现行人重识别。本发明通过充分考虑行人重识别问题中存在的各种挑战,提出了多部件自注意力机制,有效地扩展了注意力激活区域,丰富了行人特征;自注意力模块使网络更充分细致地关注具有判别特性的区域就,其中空间注意力模块和通道注意力模块以残差的形式融入网络,使得网络更加健壮稳定,容易训练。
-
-
公开(公告)号:CN117934624A
公开(公告)日:2024-04-26
申请号:CN202311729964.5
申请日:2023-12-15
Applicant: 之江实验室
Abstract: 本发明公开了一种基于平面单应性矩阵的相机位姿校正方法和系统,方法包括以下步骤:获取相机细微运动前后两张图像并利用已知相机内参对两张图像去畸变;对去畸变后的两张图像提取并匹配特征点得到初始二维坐标点对集合;使用对极几何约束和平面约束对二维坐标点对进行过滤筛选得到优选二维坐标点对集合;基于优选二维坐标点对集合和平面单应性矩阵通过构建非线性优化问题求解相机的微细刚性运动;根据求解的相机的微细刚性运动进行相机位姿校正。本发明能自动估计相机的任意微细刚性运动,包括相机的旋转和平移,无需任何标定物或标记物,减少大量人工、时间和硬件成本,尤其适用于固定场景下对已标定的多相机系统进行相机位姿校正。
-
公开(公告)号:CN113793380B
公开(公告)日:2024-04-26
申请号:CN202110995023.0
申请日:2021-08-27
Applicant: 之江实验室
Abstract: 本发明公开了一种基于单目相机的头部三维坐标的摔倒检测方法,首先估计单目视频中头部三维坐标,再根据头部三维坐标的变化检测人员是否摔倒。单目头部三维坐标估计通过相机标定获得相机内参矩阵,通过头部检测获得头部在图像中的矩形框,利用相机内参、头部矩形框和预设的头部基本几何参数构建头部三维坐标求解方程,求解在相机坐标系下的头部三维坐标。通过系统标定获得世界坐标系到相机坐标系的变换矩阵,经过坐标变换,得到在世界坐标系下的头部三维坐标。当头部坐标z分量小于一定阈值时判定人员为摔倒状态。本方法利用单个摄像头即可估计头部的三维坐标,并判断人员是否摔倒,硬件成本低,可广泛应用于智能监控等领域。
-
公开(公告)号:CN116580767B
公开(公告)日:2024-03-12
申请号:CN202310461742.3
申请日:2023-04-26
Applicant: 之江实验室 , 中国科学院东北地理与农业生态研究所
Abstract: 一种基于自监督与Transformer的基因表型预测方法,通过基因芯片技术和人工测量分别获取农作物SNP数据及对应表型样本,以构建数据集;首先,将SNP数据预处理及编码后,送入自监督模型,并通过DeepLIFT算法,计算各SNP位点对表型的贡献得分;然后,使用该SNP各位点贡献度得分改进Transformer嵌入编码方式,并结合自注意力机制,有效提取基因与表型相关性特征图;最后将特征图送入预测回归头预测表型值。本发明还包括一种基于自监督与Transformer的基因表型预测系统。本发明使Transformer模型获取SNP位点贡献度先验知识,更关注贡献度高的位点,减少维度干扰,有效提高预测准确度,适用于农作物基因表型预测。
-
公开(公告)号:CN117011316B
公开(公告)日:2024-02-06
申请号:CN202311278665.4
申请日:2023-10-07
Applicant: 之江实验室 , 中国科学院东北地理与农业生态研究所
IPC: G06T7/11 , G06T7/00 , G06T5/70 , G06T3/4053 , G06T7/62
Abstract: 一种基于CT图像的大豆茎秆内部结构辨识方法和系统,该方法包括:步骤一,将大豆盆栽放入植物CT采集设备,利用micro‑CT设备对大豆植株进行从上而下的扫描,得到采集的大豆茎秆CT图像数据;步骤二,对采集的CT图像数据集进行数据增强,引入扩散模型对数据进行超分辨处理,获取更丰富的组织细节信息;步骤三,对CT图像进行分割,得到大豆茎秆内部的组织结构的分割图;步骤四,根据分割结果进行体积重建,获得网格化数据,获得分割区域的体积、表面积等参数。本发明利用CT技术对大豆全生命周期的茎秆内部组织进行捕获,避免了传统破坏式捕获大豆植株内部信息,能有效提升大豆植株茎秆内部结
-
公开(公告)号:CN117252930A
公开(公告)日:2023-12-19
申请号:CN202311222096.1
申请日:2023-09-21
Applicant: 之江实验室
IPC: G06T7/80
Abstract: 本发明公开了一种大型展厅多相机监控系统内外参标定方法和系统,包括以下步骤:获取多相机视频数据作为标定数据;对标定数据进行预处理;进行单目相机标定得到相机内参初值;使用链式法进行相机外参初步估计得到每个相机相对于世界坐标系的位姿作为相机外参初值;进行标定板位姿初步估计得到每个特定姿态下的标定板位姿初值;构造总重投影误差作为目标函数并引入基于畸变参数的正则项;使用相机内参初值、相机外参初值和标定位板位姿初值,最小化带有正则项的目标函数以求解全局优化问题,得到最优相机内外参数。本发明能够减小人工成本和风险,提高相机内外参标定的准确性,适用于高空悬挂或处于开阔空间中的多相机系统内外参标定应用场景。
-
公开(公告)号:CN117036829A
公开(公告)日:2023-11-10
申请号:CN202311278518.7
申请日:2023-10-07
Applicant: 之江实验室 , 中国科学院东北地理与农业生态研究所
IPC: G06V10/764 , G06V10/774 , G06V10/82 , G06V10/74 , G06N3/0464 , G06N3/08
Abstract: 一种基于原型学习实现标签增强的叶片细粒度识别方法和系统,包括:构建细粒度叶片分类数据集;将训练图像输入模型并得到最后一层卷积网络输出的特征向量,按照图像类别标签获取每个类的平均特征值;将训练图像输入上述卷积网络,计算其在最后一个卷积层输出的向量与所有原型特征的相似度;将上述相似度结果与输入图像的真实标签进行加权融合,获得软标签;根据输入图像的真实标签,对原型特征库中对应的原型向量进行迭代更新;获取输入图像经过网络分类层输出的预测标签;将预测标签与软标签进行相似度计算,作为损失函数指导整个系统的训练;将待测图像输入训练完成的网络进行分类预测,根据预测的标签分布确定图像类别。
-
-
-
-
-
-
-
-
-