-
公开(公告)号:CN111915628B
公开(公告)日:2023-11-24
申请号:CN202010587875.1
申请日:2020-06-24
Applicant: 浙江大学
Abstract: 本发明公开了一种基于预测目标密集边界点的单阶段实例分割方法。人类可以很容易的通过物体边界来定位物体,而无需对物体的每个像素做判断。本发明将实例分割任务转变为三个并行任务:实例中心分类、密集边界点的位置和属性预测,然后通过对预测的边界点插值的方法获得实例分割掩码图像。另外,本发明提出更有效的处理高质量中心样例的方法和新的堆叠卷积结构来进一步提高分割性能。通过很少的改动就可以把该实例分割架构转变成检测架构,统一了分割和检测任务。本发明相比于前人提出的二阶段边界点预测方法具有更少的浮点运算次数和参数量,且优于大多数单阶段实例分割方法,有助于推动实例分割领域向目标边界点学习的方向发展。
-
公开(公告)号:CN112085126B
公开(公告)日:2023-12-12
申请号:CN202011059908.1
申请日:2020-09-30
Applicant: 浙江大学
IPC: G06F18/22 , G06F18/214 , G06N3/0464 , G06N3/08 , G06N20/20
Abstract: 本发明公开了一种侧重于分类任务的单样本目标检测方法。单样本目标检测任务是检测出询问图像中与单个参考实例图像类别一致的所有实例。通过观察发现,单样本目标检测性能有限的一个主要原因是由于其分类能力较差而产生许多假正例导致的,本发明基于此观察,提出了一种侧重于分类任务的单样本目标检测方法,该方法在两个重要方面进行了改进:本发明提出使用相同交并比阈值的分类级联网络,通过比较多个邻近区域来提高分类的鲁棒性;本发明还提出对询问实例特征和参考实例特征进行分类区域变形的网络,以获得更有效的比较区域。本发明的方法相比于基准方法,在训练过的类别和未训练过的类别两个指标上的准确度均有显著提高。
-
公开(公告)号:CN112085126A
公开(公告)日:2020-12-15
申请号:CN202011059908.1
申请日:2020-09-30
Applicant: 浙江大学
Abstract: 本发明公开了一种侧重于分类任务的单样本目标检测方法。单样本目标检测任务是检测出询问图像中与单个参考实例图像类别一致的所有实例。通过观察发现,单样本目标检测性能有限的一个主要原因是由于其分类能力较差而产生许多假正例导致的,本发明基于此观察,提出了一种侧重于分类任务的单样本目标检测方法,该方法在两个重要方面进行了改进:本发明提出使用相同交并比阈值的分类级联网络,通过比较多个邻近区域来提高分类的鲁棒性;本发明还提出对询问实例特征和参考实例特征进行分类区域变形的网络,以获得更有效的比较区域。本发明的方法相比于基准方法,在训练过的类别和未训练过的类别两个指标上的准确度均有显著提高。
-
公开(公告)号:CN111915628A
公开(公告)日:2020-11-10
申请号:CN202010587875.1
申请日:2020-06-24
Applicant: 浙江大学
Abstract: 本发明公开了一种基于预测目标密集边界点的单阶段实例分割方法。人类可以很容易的通过物体边界来定位物体,而无需对物体的每个像素做判断。本发明将实例分割任务转变为三个并行任务:实例中心分类、密集边界点的位置和属性预测,然后通过对预测的边界点插值的方法获得实例分割掩码图像。另外,本发明提出更有效的处理高质量中心样例的方法和新的堆叠卷积结构来进一步提高分割性能。通过很少的改动就可以把该实例分割架构转变成检测架构,统一了分割和检测任务。本发明相比于前人提出的二阶段边界点预测方法具有更少的浮点运算次数和参数量,且优于大多数单阶段实例分割方法,有助于推动实例分割领域向目标边界点学习的方向发展。
-
-
-