-
公开(公告)号:CN118918594A
公开(公告)日:2024-11-08
申请号:CN202410905664.6
申请日:2024-07-08
Applicant: 浙江大学
Abstract: 本发明公开了一种矩阵式字符关键点检测方法和装置,该方法基于监督学习训练若干关键点簇,再通过无监督聚类得到字符各关键点的中心坐标,包括:(1)将OCR字符图映射至固定规格的像素矩阵;(2)设定阈值参数二值化该像素矩阵得到字符像素图;(3)标注该字符像素图中的笔画起点、笔画终点、笔画交叉点处的若干像素,并记录簇数量;(4)用深度学习神经网络学习该像素矩阵的若干簇关键点;(5)再用无监督聚类算法得到各簇关键点中心。本发明具有高准度,低延迟,鲁棒性强特点,可用于常规字符型盲文板、辅助盲人跳过学习盲文直接学习理解常规字符等产品功能应用,具有较好的商业化前景。
-
公开(公告)号:CN119498819A
公开(公告)日:2025-02-25
申请号:CN202411316862.5
申请日:2024-09-20
Applicant: 浙江大学
Abstract: 一种基于实时关键点检测的非站立式量体方法及装置,该方法包括(1)采集非站立式数据集图像;(2)标注关节关键点:左耳、右耳、左肩、右肩、左肘、右肘、左手腕、右手腕、左髋、右髋、左膝、右膝、左踝、右踝;标注检测框:大臂、小臂、大腿、小腿、身体躯体、头部;标注局部横截面最长边缘关键点:大臂、小臂、大腿、小腿;(3)设计复合网络,将所有关键点及检测框合并送入网络训练;(4)复合网络支持视频实时检测、上传视频、上传图片三种方式得出身体数据结果。本发明具有高精度,低延迟,鲁棒性强特点,可用于肢体残疾人身体测量、辅助健全人快速测量身体数据、衣物商家智能量体等产品功能应用,具有较好的商业化前景。
-
公开(公告)号:CN118537395A
公开(公告)日:2024-08-23
申请号:CN202410726695.5
申请日:2024-06-06
Applicant: 浙江大学
Abstract: 本发明公开了一种基于YOLO v5双机位双目相机毛笔三维坐标检测方法和装置,该方法基于两个基线正交的双目摄像头实时检测毛笔的三维坐标,包括:(1)采集毛笔图像,仅标注毛笔框制作毛笔目标检测数据集;(2)使用YOLO v5训练毛笔目标检测数据集;(3)利用固定双机位双目摄像机绘制两张实时深度图;(4)将双机位双目摄像机各自检测的目标三维坐标按预设映射方案进行真实目标三维坐标映射;(5)将优化好的整体检测模型到实地应用。本发明具有高精度,低延迟,鲁棒性强特点,可用于书法教学中毛笔书写姿势跟踪、笔迹实时反馈等产品功能应用,具有较好的商业化前景。
-
公开(公告)号:CN119810175A
公开(公告)日:2025-04-11
申请号:CN202510013889.5
申请日:2025-01-06
Applicant: 浙江大学
Abstract: 本发明涉及一种基于深度学习映射的智能体型测量方法和装置,其方法包括:(1)视频数据集制作;采集包含目标人体及参考物瓶子的影像数据;(2)参照物检测:应用深度学习模型对每一帧视频中的参照物进行识别,计算映射比例;(3)关键点检测:通过关键点检测算法检测视频中的人体及骨骼关键点,进而计算相关身体参数;(4)神经网络优化:设计神经网络对测量结果进行优化调校,提升测量精度;(5)将完成的算法模型应用于实际测量场景。本发明具有鲁棒性强、适用性广泛的特点,适用于智能体型量测、虚拟试衣、健康管理等多个领域,且具有显著的商业应用前景。
-
公开(公告)号:CN118628962A
公开(公告)日:2024-09-10
申请号:CN202410900891.X
申请日:2024-07-05
Applicant: 浙江大学
IPC: G06V20/40 , G06V10/26 , G06V10/774 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种可解释性的增强视频目标分割精度方法和装置,该方法基于可解释性梯度激活图对含卷积层簇的深度学习网络面向视频目标分割任务时,实现该深度学习网络分割精度的提升。包括(1)卷积簇深度学习网络训练原始视频数据集;(2)根据本发明所设计3D可解释性激活张量筛选视频帧弱特征像素;(3)根据3D可解释性激活张量计算出目标在单个视频中的运动范围制作新视频集;(4)卷积簇深度学习网络重新训练新视频集,增强目标在运动范围中的弱视频帧像素特征。(5)训练收敛后,进行实地应用。本发明具有高分割精度,计算量少特点。其中弱视频帧像素可提供面向视频目标分割任务的深度学习网络的改进方向,并得出该深度学习网络的可解释性的可提升空间。
-
-
-
-