-
公开(公告)号:CN119339443A
公开(公告)日:2025-01-21
申请号:CN202411886455.8
申请日:2024-12-20
Applicant: 吉林大学
IPC: G06V40/20 , G06V10/44 , G06V10/774 , G06V10/776 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于摄影测量学和深度学习的三维人体姿态识别方法,涉及姿态识别技术领域,包括以下步骤:收集原始视频数据,使用基于深度学习的三维姿态估计方法MediaPipe进行姿态估计,获取图像原始三维关键点数据;再使用关键点规范算法对关键点数据进行初步约束,纠正识别误差;再使用基于共线方程的多视角模拟算法进行数据增强,以获取更丰富的视角信息,扩大数据集;构建姿态识别模型KeyposeNet;对KeyposeNet进行训练和测试,选出最佳模型进行姿态识别。本发明采用上述一种基于摄影测量学和深度学习的三维人体姿态识别方法,实现了更高效和准确的人体姿态分类识别,减少了人工分类的成本,为人体姿态的识别判断提供了辅助手段,从而应用于各种场合。
-
公开(公告)号:CN116774154A
公开(公告)日:2023-09-19
申请号:CN202311061194.1
申请日:2023-08-23
Applicant: 吉林大学
IPC: G01S7/02 , G01S7/41 , G06V10/46 , G06V10/774 , G06V10/776 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/048 , G06N3/08 , G06V10/80
Abstract: 本发明适用于雷达信号处理领域,提供了一种雷达信号分选方法,该方法包括以下步骤:步骤A:生成六种雷达信号调制模式不同情况的数据,以扩充数据集;步骤B:对步骤A中的图像进行正则化操作;步骤C:构建基于卷积神经网络和Transformer的RDNet;输入的雷达信号图像首先经过特征提取编码器进行特征提取,然后将提取的特征送入到解码器进行尺度的重建,最后将与原始图像相同尺寸的特征输入到雷达信号分选头,从而得到最终的分选结果,本发明的分选准确度高,在面对输入脉冲中缺失率和噪音率高的情况下鲁棒性强,可以成为复杂电磁环境下雷达信号分选的有利工具,有助于电子战中雷达电子对抗的实施。
-
公开(公告)号:CN110196974B
公开(公告)日:2023-07-07
申请号:CN201910501539.8
申请日:2019-06-11
Applicant: 吉林大学
IPC: G06F40/18 , G06F40/289 , G06F16/35
Abstract: 本发明公开了一种用于大数据清洗的快速数据聚合方法,包括以下步骤:数据读取:原有的数据是在Excel中存储的,利用文件流的形式读取出Excel中的数据信息,根据数据的格式,将读取出来的数据信息存储在记录列表中,最后返回一个记录列表;对大数据文本进行切分;进行文本相似度比较;聚合结果的显示和修改:将要显示的表单打印出来并且提供给用户修改和删除,修改完成后,进行表单的下载。
-
公开(公告)号:CN119600688A
公开(公告)日:2025-03-11
申请号:CN202411689166.9
申请日:2024-11-25
Applicant: 吉林大学
IPC: G06V40/20 , G06V20/40 , G06V20/64 , G06V10/774 , G06V10/82 , G06V10/80 , G06N3/0464 , G06N3/084 , G06N3/09
Abstract: 本发明适用于坐姿识别技术领域,提供了一种基于深度学习的三维高效人体坐姿识别方法,包括以下步骤:录制视频数据,对视频中的图像都先使用blazepose进行3d姿态估计,提取三维关键点坐标;再将得到的关键点坐标随机抖动和镜像翻转进行数据增强,扩大数据集;构建基于点云模型的KpointNet模型;对KpointNet模型进行训练,生成训练模型;最后对训练好的模型进行测试,并应用于实践中。本发明可以从RGB图像中获取更丰富的空间信息,提高了信息维度;基于点云模型修正的KpointNet模型提高了网络模型的推理利用率,有着更好的准确率,直接对三维关键点数据进行学习,有更高效的数据利用率,本发明可以三维高效的识别人体坐姿类别,及时纠正不良坐姿,预防潜在的健康风险。
-
公开(公告)号:CN116935494B
公开(公告)日:2023-12-12
申请号:CN202311187857.4
申请日:2023-09-15
Applicant: 吉林大学
IPC: G06V40/20 , G06N3/0464 , G06N3/08 , G06V10/20 , G06V10/764 , G06V10/82 , G06V20/40
Abstract: 本发明适用于图像处理技术领域,提供了一种基于轻量化网络模型的多人坐姿识别方法,包括以下步骤:处理采集的视频流数据,使用OpenPose进行关键点提取,将得到的人体关键点进行单人连接并使用边界框归一化预处理,使用最小生成树算法构建人体骨架图,处理人体骨架图后,对数据集进行标注;增强处理后的图像,扩大数据集;构建基于轻量化卷积神经网络的LMSPNet模型;对LMSPNet模型进行训练,生成训练模型;对训练模型进行测试。本发明实现了对多人坐姿的自动预测和评估,通过自动预测人体关键点并生成人体骨架图,能够成功对用户的坐姿进行分类判断,帮助用户及时发现和纠正错误的坐姿,预防潜在的伤害。
-
公开(公告)号:CN116778208B
公开(公告)日:2023-11-10
申请号:CN202311070150.5
申请日:2023-08-24
Applicant: 吉林大学
IPC: G06V10/762 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明适用于图像处理技术领域,提供了一种基于深度网络模型的图像聚类方法,包括以下步骤:对数据集进行灰度归一化预处理,将像素值统一,裁剪为统一大小;把处理后的图像数据集分成训练集、验证集和测试集,增强图像,制作数据集视图,将每个图像数据生成两种增强视图,为数据赋予伪标签;构建深度网络模型;训练深度网络模型,生成训练模型;对训练模型进行测试。本发明中深度网络模型将类内紧密性与类间差异性相互融合,得到更多尺度、更丰富的特征,在聚类头模块实现精准的聚类分配;可以准确地进行层次相似性的提取,减少了因缺少相似性信息导致的类间冲突从而导致聚类性能不佳,提高聚类效率与聚类效果。
-
公开(公告)号:CN111257839B
公开(公告)日:2021-12-21
申请号:CN202010234542.0
申请日:2020-03-30
Applicant: 吉林大学
Abstract: 本发明涉及一种雷达信号分选方法,包括以下步骤:对任意两个信号的si和sj到达时间做减法,符合阈值就存储到矩阵T;统计每个PRI出现的次数,对任意两个PRIi和PRIj,符合误差阈值,做归一化处理,遍历所有PRI,记录每个PRI的前后点信息;如果存在该PRI的后点和该PRI的前点相同,则进行连线查找;当连线长度大于某一阈值,并且所对应的PRI不是骨架周期,提取所对应的PRI,完成恒参信号分选;根据PRI的前后点信息,形成每个PRI的前后点集;之后移除小骨架PRI,计算所有的起始可行解,完成参差信号分选;最后参照恒参和参差分选方式完成组参差信号分选。该方法在有误差和信号缺失15%时仍然能够成功分离恒参、参差、组参差信号,该算法具有较强的鲁棒性、高效性和实时性。
-
公开(公告)号:CN112336381A
公开(公告)日:2021-02-09
申请号:CN202011234333.2
申请日:2020-11-07
IPC: A61B8/08
Abstract: 本发明公开了一种基于深度学习的超声心动图收缩/舒张末期帧自动识别方法,具体方法为:步骤1、图像预处理;步骤2、网络搭建与训练;步骤3、对测试集数据进行定位;步骤4、对测试集数据进行自动定位。本发明的有益效果:本发明提供一种基于深度学习的超声心动图收缩/舒张末期帧自动识别方法,在超声心动图所有帧中自动预测最大收缩末期帧和最大舒张末期帧,减少人工参与成本,有利于医生对左心室功能进行评价,为心脏疾病诊断提供了基础。
-
公开(公告)号:CN119007829B
公开(公告)日:2024-12-27
申请号:CN202411496581.2
申请日:2024-10-25
IPC: G16B40/00 , G16B50/00 , G16B5/00 , G06N3/0442 , G06N3/0464 , G06N3/0455 , G06N3/08
Abstract: 本发明适用于生物信息技术领域,提供了一种基于深度学习的抗性多肽识别方法。本发明专注于识别AMP、ACP、ADP、AHP、AIP、AAP和AOP七种生物抗性肽,解决传统方法鉴定抗性多肽时存在的昂贵、费力和耗时等问题。该方法能够更全面的描述抗性多肽的特征,实现更高效、准确的识别。与5个最先进的方法在相同测试集上进行比较时,本发明的AP‑FD模型将敏感度提高了11.2‑23.9%,准确率提高了0.4‑2.5%,F1值提高了6.1‑16%,MCC提高了5.3‑16%,AUC提高了1.6‑4.7%,AP值提高了8.7‑19.5%。且AUROC和APROC曲线进一步证实了AP‑FD模型优于其他对比方法。
-
公开(公告)号:CN119007829A
公开(公告)日:2024-11-22
申请号:CN202411496581.2
申请日:2024-10-25
IPC: G16B40/00 , G16B50/00 , G16B5/00 , G06N3/0442 , G06N3/0464 , G06N3/0455 , G06N3/08
Abstract: 本发明适用于生物信息技术领域,提供了一种基于深度学习的抗性多肽识别方法。本发明专注于识别AMP、ACP、ADP、AHP、AIP、AAP和AOP七种生物抗性肽,解决传统方法鉴定抗性多肽时存在的昂贵、费力和耗时等问题。该方法能够更全面的描述抗性多肽的特征,实现更高效、准确的识别。与5个最先进的方法在相同测试集上进行比较时,本发明的AP‑FD模型将敏感度提高了11.2‑23.9%,准确率提高了0.4‑2.5%,F1值提高了6.1‑16%,MCC提高了5.3‑16%,AUC提高了1.6‑4.7%,AP值提高了8.7‑19.5%。且AUROC和APROC曲线进一步证实了AP‑FD模型优于其他对比方法。
-
-
-
-
-
-
-
-
-