-
公开(公告)号:CN117133014A
公开(公告)日:2023-11-28
申请号:CN202310663816.1
申请日:2023-06-06
Applicant: 浙江农林大学 , 中润农牧科技(浙江)有限公司
IPC: G06V40/10 , G06V10/46 , G06V10/22 , G06V10/82 , G06N3/0464 , G06V10/764
Abstract: 本发明公开了一种生猪面部关键点检测方法,包括以下步骤,构建生猪面部图像的数据集;使用Labelme工具对所述数据集进行目标框和关键点标注,其中目标框标注范围为猪只面部;基于YOLOv5Face模型,将原有的YOLOv5s模型骨干替换为MobileOne重参数化骨干网络,然后融合解耦全连接注意力模块构成MOB‑DFC模块,再将特征金字塔中的上采样替换为轻量化上采样算子CARAFE,将YOLOv5s‑Face模型改进为YOLO‑MOB‑DFC模型;利用所述YOLO‑MOB‑DFC模型对图像进行预测,生成目标的类别、边界框的坐标、五个关键点的位置信息以及置信度完成生猪面部关键点检测。本发明的有益效果:平均检测精度达到了99%,比YOLOv5s模型提高了2.48个百分点,同时参数量降低了18%,NME为0.02344,检测速度为153FPS,实现了低参数量、快速和高精度的猪脸关键点的检测。
-
公开(公告)号:CN115713780A
公开(公告)日:2023-02-24
申请号:CN202210970566.1
申请日:2022-08-13
Applicant: 浙江农林大学
IPC: G06V40/10 , G06V20/40 , G06V10/82 , G06V10/774 , G06V10/764 , G06V10/762 , G06V10/74 , G06V10/22 , G06N3/08 , G06N3/0464
Abstract: 本发明公开了一种基于生成对抗网络的群猪姿态识别方法,包括以下步骤,采集群猪初始数据集并对所述初始数据集进行预处理;构建包括依次设置的生成器、辨别器以及姿态估计模块三个部分的生成对抗网络模型所述姿态估计模块对所述生成器所输出的热图进行解码,并在图中提取出推测出的相应关键点位置,按照比例映射回原图;最后根据关键点位置的分布情况,组装成独立的群猪姿态完成识别。实验结果表明,能够以74.09%的mAP检测群猪的关键点,并对于被遮挡的关键点,PCK指标最高可达82.0%。
-
公开(公告)号:CN115346043A
公开(公告)日:2022-11-15
申请号:CN202210807287.3
申请日:2022-07-11
Applicant: 浙江农林大学
IPC: G06V10/25 , G06V10/46 , G06V10/762 , G06V10/764 , G06V10/82
Abstract: 本发明公开了一种猪群的运动自动量化和评估方法,包括以下步骤,采集群猪的数据集并进行数据预处理;利用YOLOv5s模型对群猪的位置进行检测获取位置信息;所述位置信息输入到mean‑shift模型中确定群猪的运动中心;追踪规定时间间隔内所述运动中心的移动距离并量化;量化后的运动轨迹利用XGBoost模型分组猪运动量化和运动水平分类,完成对群猪不同运动水平的分类和评估。本发明的有益效果:本发明利用YOLOV5s对群猪的位置进行检测,利用mean‑shift聚类算法找到群猪运中心并对其运动中心的轨迹进行跟踪、量化和统计,最后利用XGBoost分类模型进行群猪的活动评估,从而实现自动对群猪的运动进行较长时间自动量化与评估,为群猪的健康检测提供技术支持。
-
公开(公告)号:CN114419674A
公开(公告)日:2022-04-29
申请号:CN202210081495.X
申请日:2022-01-24
Applicant: 浙江农林大学
IPC: G06V40/10 , G06V10/26 , G06V10/28 , G06V10/30 , G06V10/762 , G06V10/764 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于无监督聚类和深度学习的群猪躺模式识别方法,包括以下步骤,采集初始数据集并对图像进行统一裁剪;利用Grabcut图像分割的方法提取出目标图像;通过动态阈值分割,使所述目标图像二值化,利用无监督聚类算法Mean‑shift找到聚类中心,通过各个椭圆拟合中心到聚类中心的距离并输出其方差和标准差;对所述标准差进行处理,使其数据的值映射到[0,1]之间,利用训练完成的所述CNN‑SVM模型对群猪躺模式进行识别。本发明的有益效果:基于CNN‑SVM分类模型对群猪5种躺卧模式进行高精度分类识别,识别准确率为97.09%,平衡准确率为96.59%,平衡准确率加权为97.07%。
-
公开(公告)号:CN108090891A
公开(公告)日:2018-05-29
申请号:CN201711059425.X
申请日:2017-11-01
Applicant: 浙江农林大学
Abstract: 本发明公开了一种检测遗漏细胞区域与新增细胞区域的方法及系统,用以解决现有技术不能准确地检测遗漏目标与新增目标的问题。该方法包括:S1、利用图像灰度分布与梯度分布信息构建细胞最大覆盖区域,并构建图像中具有不同重要性的灰度层级结构信息;S2、通过帧间关联的方式确定当前帧的细胞主要信息;S3、基于已检测到的细胞主要信息添加细胞中间信息并获得其凸集近似区域;S4、通过一系列形态学操作得到能表示遗漏目标与新增目标的区域。本发明利用细胞最大覆盖区域与细胞凸集近似区域,并运用一系列形态学操作准确检测遗漏目标与新增目标的区域范围。
-
公开(公告)号:CN107742284A
公开(公告)日:2018-02-27
申请号:CN201710843638.5
申请日:2017-09-19
Applicant: 浙江农林大学
Abstract: 本发明公开了一种剔除心肌细胞图像冗余层级结构信息的方法及系统,用以解决现有技术不能很好地分析心肌细胞免疫组化图像中细胞核独立情况与粘连情况的问题。该方法包括:S1、采用冗余阈值参数选取方法确定冗余阈值参数,并从已得图像灰度层级结构信息中剔除值小于冗余阈值参数的像素区域,简化图像灰度层级结构信息;S2、从图像灰度层级结构信息中剔除类似噪声面积小于预设阈值的局部独立区域;S3、采用覆盖检测操作,确定不同染色响应位点分布以及不同染色信息之间的相互覆盖关系。本发明通过层级结构信息关系检测和分析心肌细胞核粘连情况与独立情况,从而理解心肌细胞免疫组化图像内部的场景信息,有利于心肌细胞免疫组化图像的后处理。
-
公开(公告)号:CN119810015A
公开(公告)日:2025-04-11
申请号:CN202411668345.4
申请日:2024-11-21
Applicant: 浙江农林大学
IPC: G06T7/00 , G06N3/045 , G06V10/774 , G06V10/82 , G06V10/764 , G06N3/0464 , G06V10/766
Abstract: 本发明公开了一种猪只计数方法,包括以下步骤,构建基于点标注的猪只计数数据集;在所述P2Pnet的主干网络VGG16中的每个body后面加入高效通道注意力的ECA模块;在所述P2Pnet的特征金字塔FPN结构加入坐标通道混洗注意力的CSA模块;将所述P2Pnet中的分类损失使用的交叉熵损失函数替换为Focal Dice loss提升模型的分类准确性;对点回归任务中的匈牙利匹配算法进行改进,包括引入不确定性成本处理机制、加权距离处理机制和自适应密度惩罚机制提高匹配精度;最终得到改进后模型为PIG‑P2PNet,将所述PIG‑P2PNet应用于猪只计数。本发明的有益效果:在各种实际环境中具有适应性和泛化能力,计数精度和鲁棒性方面表现优异,尤其在高密度、遮挡复杂的饲养环境中效果十分突出。
-
公开(公告)号:CN119379761A
公开(公告)日:2025-01-28
申请号:CN202411295582.0
申请日:2024-09-18
Applicant: 浙江农林大学
Abstract: 本发明公开了一种基于双视角点云配准的猪只体尺测量方法,包括以下步骤,采集猪只双侧点云数据;采用等间距抽稀算法精简点云数据,再利用改进后的LoOP滤波算法去除异常值点云数据;获取完整的猪只点云数据;提取相结合提取猪只轮廓特征,实现猪只多体尺参数的非接触式测量。本发明的有益效果:一是测得的体长、体高、臀高、体宽、腹宽、臀宽、胸围和腹围的平均相对误差分别为1.28%、0.88%、1.97%、2.71%、2.83%、3.71%、2.03%和2.17%,相对误差平均值为2.20%,绝对误差平均值为1.04cm;二是可实现生猪多体尺参数的测量,精度较高,能较好地满足生猪育种时的体尺测量需求,为生猪体尺非接触式测量提供了新的途径。
-
公开(公告)号:CN113554634B
公开(公告)日:2024-11-08
申请号:CN202110871684.2
申请日:2021-07-30
Applicant: 浙江农林大学
Abstract: 本发明属于图像处理技术领域,提供了一种立木视差图生成方法及装置。本发明的方法包括:通过双目相机获取立木图像,并对立木图像进行标定和预处理;获取改进Census窗口的中心像素点灰度值以及初始匹配代价值;结合图像分割对立木图像进行代价聚合,确定目标视差并输出视差图。本发明实施例提供的技术方案,提供了一种具有普适性的立木视差图生成方法,具有较强的抗干扰能力,同时获取到的图像轮廓更清晰,并能包括更多的细节。
-
公开(公告)号:CN115147463B
公开(公告)日:2024-10-29
申请号:CN202210350267.8
申请日:2022-04-04
Applicant: 浙江农林大学
Abstract: 本发明公开了一种基于旋转台的多视角点云自主配准方法及应用,包括以下步骤,采集模块采集目标图像;生成3D点云;确定旋转盘上带有不同颜色的标签数量,以及所述标签与所述旋转盘直径的比例;进行所述旋转盘的点云标定,得出所述旋转盘连续旋转前后点云片的刚性变换矩阵集R;将目标对象放置于所述旋转盘上,在相同条件下,将所述旋转盘有序旋转360°,所述目标对象与转盘点云片具有相同的变换矩阵集R,依次有序输入后完成目标点云自主配准。本发明的有益效果:仅需一次旋转盘标定,即可实现多个目标物的点云自主配准,大大提高了点云数据处理效率;二是基于特制旋转台实现点云配准方法不需经过多个坐标系的转换和角度计算,减少了累计误差。
-
-
-
-
-
-
-
-
-