-
公开(公告)号:CN119067174A
公开(公告)日:2024-12-03
申请号:CN202411077367.3
申请日:2024-08-07
Applicant: 浙江大学
IPC: G06N3/0455 , G06N3/084 , G06N3/09 , G06F18/25 , B60W60/00
Abstract: 本发明公开了一种基于自我感知掩码的轨迹预测方法,包括:构建一个基于Transformer的深度神经网络;复制一个相同结构的深度神经网络,组成教师‑学生模型;在模型的顶层加入全连接层网络,在轨迹预测数据集上进行自我感知的掩码生成训练,训练后的学生模型后续作为掩码生成模块产生高质量掩码;构建一个基于Transformer编码‑解码结构的注意力神经网络;将训练好的掩码生成模块加入到注意力神经网络中在轨迹预测数据集上对注意力神经网络进行轨迹重建预训练;预训练结束后,将注意力神经网络在轨迹数据集上进行轨迹预测训练;将训练好的轨迹预测网络应用在自动驾驶系统中,用于预测其他交通参与者的轨迹。本发明能够提升模型的训练效率,使轨迹预测更加准确。
-
公开(公告)号:CN118334242A
公开(公告)日:2024-07-12
申请号:CN202410427179.2
申请日:2024-04-10
Applicant: 浙江大学
IPC: G06T17/00 , G06Q10/087
Abstract: 本发明公开了一种基于分层强化学习的出口集装箱堆场存储位置分配方法,该将即时翻箱率和即时箱区均衡度作为奖励函数的元素,使得出口集装箱排序过程、箱区分配过程和箱位分配过程中充分考虑到堆场内同一航线出口集装箱的均衡分布情况和翻箱情况,降低了后续出口集装箱的装载难度,提升了堆场的并行效率,减少船舶装箱时间。
-
公开(公告)号:CN117237709A
公开(公告)日:2023-12-15
申请号:CN202311150654.8
申请日:2023-09-07
Applicant: 浙江大学
IPC: G06V10/764 , G06V10/774 , G06F17/16 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于模型输出差值矩阵知识蒸馏的图像分类方法及装置,包括:(1)将训练集图片分别输入待训练的学生模型和已训练的教师模型,分别输出对应的逻辑分类值;(2)分别计算每个逻辑分类值之间的两两差值,构建两个差值矩阵;(3)计算两个差值矩阵之间的区别度,作为蒸馏损失函数;(4)同时计算学生模型的逻辑分类值和图片真实分类标签的交叉熵,作为分类任务的损失函数,与蒸馏损失函数相加后得到训练学生模型的最终损失函数;(5)向前传递梯度以更新学生模型的参数,教师模型的参数保持不变;(6)重复以上步骤进行训练,并将训练完毕的学生模型进行图片分类。利用本发明,可以提高在图片分类任务上进行知识蒸馏的效果。
-
公开(公告)号:CN116935488A
公开(公告)日:2023-10-24
申请号:CN202310931838.1
申请日:2023-07-27
Applicant: 浙江大学
IPC: G06V40/20 , G06V10/774 , G06V10/82 , G06V20/40 , G06V40/10 , G06V10/40 , G06V10/62 , G06V10/764 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了一种端到端的基于关键点与卷积神经网络的动作识别方法,包括:(1)从时序视频中采样,获取多帧时序图片序列;(2)选取边缘设备端的神经网络作为关键点检测模型,从多帧时序图片序列中预测出多帧关键点数据;(3)使用关键点预测大模型对关键点检测模型进行蒸馏,或者使用真实标签训练关键点检测模型;(4)根据预测出的关键点生成高斯分布热力图;(5)在多帧高斯分布热力图上提取时空特征;(6)根据时空特征预测动作类型;(7)设置目标函数训练模型,将训练好的关键点检测模型和动作识别模型分别部署在边缘设备端、云端,进行实时目标动作检测。利用本发明,可以提高基于关键点的动作识别的准确性与真实性。
-
公开(公告)号:CN116543233A
公开(公告)日:2023-08-04
申请号:CN202310638294.X
申请日:2023-06-01
Applicant: 浙江大学
IPC: G06V10/764 , G06V10/82 , G06F18/243
Abstract: 本发明公开了一种基于频繁项集的图像多标签分类方法,包括如下步骤:(1)在图像数据集中,使用频繁项集挖掘算法挖掘出数据集的频繁项集;(2)利用挖掘出的频繁项集构建树形结构的图像多标签分类网络;(3)将特征提取网络和图像多标签分类网络结合得到总分类网络,其中,特征提取网络输出的特征向量作为图像多标签分类网络的输入;(4)训练总分类网络模型直至模型收敛;(5)将待分类的图像输入训练好的总分类网络模型中,得到多标签的分类结果。本发明通过频繁项集挖掘算法生成的频繁项集自动生成更为合理的图像多标签分类网络,可以提供更高的图像多标签分类精度。
-
公开(公告)号:CN116246117A
公开(公告)日:2023-06-09
申请号:CN202310297826.8
申请日:2023-03-23
Applicant: 浙江大学
IPC: G06V10/764 , G06V10/774 , G06N20/00
Abstract: 本发明公开了一种适用于非独立同分布情况且具有隐私保护的图像分类方法,包括:(1)随机生成一个ETF结构;(2)用ETF结构初始化全局图像分类系统;(3)从所有的客户端中随机抽取K个客户端;(4)对于被抽到的客户端,首先初始化为全局图像分类系统,然后用其私有数据更新特征抽取模型,更新时考虑记忆向量;(5)使用步骤(4)所有客户端的特征向量更新记忆向量;(6)用客户端的局部图像分类系统更新全局图像分类系统;(7)重复步骤(3)~(6),直到目标函数的损失值收敛;(8)将待分类的图像输入训练完的全局图像分类系统,得到图像分类结果。利用本发明,可以大大提升在非独立同分布数据集上基于联邦学习的图像分类质量。
-
公开(公告)号:CN115731543A
公开(公告)日:2023-03-03
申请号:CN202211496358.9
申请日:2022-11-24
Applicant: 浙江大学
IPC: G06V20/64 , G06V10/774 , G06V10/77
Abstract: 本发明公开了一种节约标注数据的点云3D物体检测方法,包括:(1)给定激光雷达点云,将激光雷达点云进行网格化,将得到的若干分布规则的柱子通过多层感知机,转化为每个柱子的特征向量;(2)将得到的柱子进行随机掩码,丢弃一部分柱子;(3)将未被丢弃的柱子输入编码器中;(4)将编码器输出的柱子输入到解码器中,恢复被丢弃的那部分柱子的特征;(5)通过恢复后的柱子特征进行重建,重建出每个柱子里面包含的点云,计算重建的点云与真实点云间的损失函数;(6)重复上述步骤,将预训练后的参数直接加载到3D物体检测模型中,使用少量有标注数据进行微调后进行应用。本发明可以在保证检测效率和精度的前提下,节约标注数据的数量。
-
公开(公告)号:CN113052031B
公开(公告)日:2022-08-09
申请号:CN202110276978.0
申请日:2021-03-15
Applicant: 浙江大学
IPC: G06V20/64 , G06V10/774 , G06K9/62
Abstract: 本发明公开了一种无需后处理操作的3D目标检测方法,包括:(1)初始化K个3D候选框和1个物体嵌入特征;(2)对输入的点云样本进行特征提取,得到点特征;(3)在点特征上提取K个3D候选框特征;(4)使用物体嵌入特征对3D候选框特征进行筛选和提取,得到K个特征;(5)使用自注意力模型让K个特征交换特征信息,得到K个提议特征;(6)根据提议特征预测K个预测结果,并与标注信息一对一匹配后训练;(7)用步骤(6)预测的K个预测结果的3D候选框替代步骤(1)的K个3D候选框,用步骤(5)得到的特征提议替代步骤(1)的物体嵌入;重复步骤(3)~(7)多次得到检测结果。本发明可以解决现有3D目标检测器存在冗余预测的问题。
-
公开(公告)号:CN114495064A
公开(公告)日:2022-05-13
申请号:CN202210104631.2
申请日:2022-01-28
Applicant: 浙江大学
IPC: G06V20/58 , G06V10/25 , G06V10/764 , G06V10/774 , G06K9/62 , G06T7/246 , G06T7/277 , G06T7/80
Abstract: 本发明公开了一种基于单目深度估计的车辆周围障碍物预警方法,包括:(1)获取图像数据,在图像数据中生成训练所需的像素标签、深度图标签以及3D目标标签,构成训练数据集;(2)建立基于单目深度估计的3D目标检测模型;(3)利用训练数据集对3D目标检测模型进行训练;(4)在进行障碍物预警过程中,使用训练优化得到的3D目标检测模型来检测连续帧的障碍物;(5)构建追踪模型,使用匈牙利最大匹配算法来追踪连续帧中相互对应的障碍物;(6)建立障碍物空间位置和速度相关的卡尔曼滤波模型,通过滤波算法,最终得到追踪障碍物的空间位置信息并判断是否有碰撞危险。利用本发明,能够在节约成本的前提下提高车辆障碍物预警的精度。
-
公开(公告)号:CN114283161A
公开(公告)日:2022-04-05
申请号:CN202111589805.0
申请日:2021-12-23
Applicant: 浙江大学
Abstract: 本发明公开了一种基于子模函数的图‑图转化任务主动学习方法,包括:利用已有标签的图像局部区域集合训练一个图‑图转化任务的深度模型;利用训练好的模型提取图像上未标注的局部区域深度特征;针对提取的局部区域深度特征集合,进行衡量其代表性以及多样性的子模函数构建;优化求解子模函数最大化问题,得到本轮迭代选择的待标注图像局部区域集合;获得待标注图像局部区域的标签,将其添加到已有标签的图像局部区域集合中,再利用所有带标签数据集重新训练图‑图转化任务的深度模型;重复上述步骤,直至挑选的图像局部区域达到要求,得到最具有标注价值的局部区域。利用本发明,可以从未标注图像中挑选出更有标注价值的图像局部区域。
-
-
-
-
-
-
-
-
-