一种改进的YOLOv7人体关键点检测方法

    公开(公告)号:CN119478442A

    公开(公告)日:2025-02-18

    申请号:CN202411576560.1

    申请日:2024-11-06

    Abstract: 本发明公开一种改进的YOLOv7人体关键点检测方法,该方法通过LabelImage进行手动标注获得丰富的训练样本;将YOLOv7中原有的MP模块替换为L‑MP模块改进特征提取,新增LiftDown Pool分支和残差连接;在YOLOv7网络的Backbone模块和Head模块之间新增EDH‑Conv模块,利用其输出作为空间权重分布来矫正激活区域,进一步提升了网络对小目标的检测能力;增加改进的RSwin Transformer编码器,用于提升对复杂场景中小目标和重叠目标的检测效果;将损失函数参照Wise‑IoU LOSS改为基于L2损失的改进关键点检测损失,并引入用于调整关键点误差权重的动态聚焦机制,加速模型的收敛。该方法增强了对于复杂场景下的人体关键点检测识别能力,对于体育运动中人体关键点检测识别与计数任务有更强的鲁棒性、准确率和效率。

    一种基于特征解耦的弱监督视频异常检测方法

    公开(公告)号:CN118485947A

    公开(公告)日:2024-08-13

    申请号:CN202410712382.4

    申请日:2024-06-04

    Abstract: 本发明公开了一种基于特征解耦的弱监督视频异常检测方法。该方法首先采集正常和异常视频构建训练数据集,然后利用预训练的视觉‑语言模型获取视频和文本标签的嵌入表示。接着,通过构建局部‑全局时间模块,将视频特征分别从局部和全局的时间依赖性进行建模,以更好地捕获视频中的时间信息。此外,通过特征解耦模块将视频特征和文本标签的共享特征有效地解耦,并将文本标签的共享特征融入到视频特征中,以增强视频特征的表示能力。最后,通过构建分类网络和使用多实例学习方法训练整个神经网络,实现对视频异常事件的准确检测。本发明通过局部‑全局时间模块的设计,有效地捕获了视频数据中的时间依赖,并通过特征解耦模块将视频特征与文本标签特征进行有效地解耦,通过将视频特征和文本标签共享特征的有效融合,提高了视频特征的表示能力。

    一种基于深度学习的集装箱弱小序列号目标检测识别方法

    公开(公告)号:CN117253154A

    公开(公告)日:2023-12-19

    申请号:CN202311434817.5

    申请日:2023-11-01

    Abstract: 本发明公开一种基于深度学习的集装箱弱小序列号目标检测识别方法,该方法对数据集通过PPOCRLabel完成半自动标注和LabelImage进行手动标注并进行Mosaic‑6数据增强获得丰富的训练样本;加入替代YOLOv5s中CSP模块的Swin‑Transformer编码器改进特征提取,引入深度可分离卷积层,提取更为充分的全局上下文特征;改进YOLOv5s中颈部网络模块的特征融合网络,并将颈部网络的Upsample层改为CARAFE,提升对微小尺度特征映射的融合能力;增加微小尺度检测头Transformer Prediction Head,引入BiFormer注意力机制层,针对性增强细粒度的细节;将损失函数CIOU LOSS换为EIOU LOSS,稳定模型的权重集。该方法增强了对于自然场景下的矩形文本框弱小目标检测识别能力,对于集装箱弱小序列号目标检测识别任务有更强的鲁棒性、准确率和效率。

    基于伪反馈与TF-IDF的查询词扩展方法

    公开(公告)号:CN108062355B

    公开(公告)日:2020-07-31

    申请号:CN201711179719.6

    申请日:2017-11-23

    Abstract: 本发明公开了一种基于伪反馈与TF‑IDF的查询词扩展方法,该方法主要通过科学的查询约束词选取,通过本发明提出的两次筛选得到最终可用来做查询词扩展的词,然后通过本发明提出的打分公式为文档进行打分和排序操作。本发明的特色在于提出了一种新的查询约束词选取方式以及候选词的选取方式,并做了两次筛选操作去除无关词。还结合了传统的BM25打分公式,发明一个新的专为查询词扩展的新打分公式,能够更加科学的将查询词扩展后的结果文档进行打分,从而得出更科学的搜索排序结果。

    一种针对表格字体的识别方法

    公开(公告)号:CN110363095A

    公开(公告)日:2019-10-22

    申请号:CN201910536393.0

    申请日:2019-06-20

    Abstract: 本发明公开的一种针对表格字体的识别方法,包括以下步骤:获取表格图像,对表格图像进行预处理,包括:图像灰度化、图像去噪、图像倾斜校正;然后进行表格提取,提取表格横线、提取表格竖线、合并表格线段,去除不合格的表格线,得到完整表格;对完整表格进行定位截取,获取表格内容在完整表格中的定位;对定位截取内容进行表格内容提取,获取表格内容;使用识别技术对表格内容进行识别,得到初步识别结果,并分别训练对应的语言库,使用对应的语言库对初步识别结果进行选举,得到最终识别结果;本发明能够对多种格式的表格进行准确定位提取表格线和表格结构,能避免虚线和细线的对表格提取的干扰,能同时对印刷体和手写体进行准确识别。

    一种基于热红外识别的路面开放场景目标检测方法

    公开(公告)号:CN119919771A

    公开(公告)日:2025-05-02

    申请号:CN202510001111.2

    申请日:2025-01-02

    Abstract: 本发明公开了一种基于热红外识别的路面开放场景目标检测方法,该方法通过采集热红外行车记录仪前向视角场景的图像样本,通过半自动标注工具和RectLabel标注工具完成图像的标注,并采用数据增广技术获取多样化的训练样本;改进YOLOv8s中颈部的C2f模块,并引入改进的SimAM注意力机制层;设计YOLOv8s的颈部网络结构和主干网络特征提取网络,以及改进主干网络中的SPPF模块;改进YOLOv8s的头部网络,增加解耦合微小目标检测头,并在头部引入改进的SE注意力机制层。该方法显著提升了在复杂路面环境下的目标检测性能,特别是在应对光照变化、车辆灯光影响以及不同类型车辆的多样性等挑战性条件下,实现了目标检测任务的高鲁棒性、准确率和效率。

    一种基于深度学习的复杂条件下杂草目标识别方法

    公开(公告)号:CN119478517A

    公开(公告)日:2025-02-18

    申请号:CN202411576405.X

    申请日:2024-11-06

    Abstract: 本发明公开一种基于深度学习的复杂条件下杂草目标识别方法,该方法首先对数据集通过LabelMe软件完成半自动标注后借助CVAT,即ComputerVisionAnnotation Tool,进行手动标注;然后,改进CoatNet检测网络的Transformer架构,在DCMHA中引入高斯噪声检测层,并引入Dropout正则化技术,提高计算效率;进一步,改进Coatnet网络结构并加深网络层次以提高网络对复杂目标的特征提取能力;再此基础上,设计非对称平滑焦点损失函数,即Asymmetric SmoothedFocal Loss函数,将交叉熵函数换为焦点损失函数,即Focal Loss函数,引入标签平滑策略和非对称性;最后,将原始视频图像输入训练所得的深度网络,得到最终杂草识别的结果。该方法增强细节信息的表达能力,对于复杂条件下杂草目标识别任务有更强的鲁棒性。

    一种基于TR-SlowFast的人体跌倒检测方法

    公开(公告)号:CN118486086A

    公开(公告)日:2024-08-13

    申请号:CN202410712696.4

    申请日:2024-06-04

    Abstract: 本发明公开了一种基于TR‑SlowFast的人体跌倒检测方法,该方法包括:通过摄像头获取含跌倒行为的可见光视频数据,对图像帧进行数据增强、剪裁和抽帧;将预处理得到的图像帧序列输入到由SlowFast修改得到的TR‑SlowFast网络中获得跌倒检测结果。TR‑SlowFast网络模型具体指将SlowFast网络的fast支路的ResNet模块替换为F‑Res2Net模块,F‑Res2Net改进了Res2Net对于分组特征的处理方式,使用跳跃连接实现fast支路的不同模块的连接,在每个F‑Res2Net模块之后增加CA注意力模块,在最后一个CA注意力模块之后增加通道混洗模块;将slow支路的ResNet模块替换为S‑GhostNet模块,其中S‑GhostNet为通过特征融合和增加EGC注意力模块修改GhostNet所得,EGC注意力模块为修改的GC注意力模块。

    基于改进图卷积神经网络的物品推荐方法

    公开(公告)号:CN117557327A

    公开(公告)日:2024-02-13

    申请号:CN202311022587.1

    申请日:2023-08-14

    Abstract: 本发明公开了一种基于改进图卷积神经网络的物品推荐方法,包括:1)采集用于推荐的用户‑物品交互数据集,并将其转化为原子文件;2)利用原子文件构建用户‑物品二部图,将用户‑物品二部图输送到改进图卷积神经网络进行参数学习,得到一个能够用于推荐的最优网络;3)通过最优网络即可为用户‑物品二部图中的任意用户推荐其可能感兴趣的物品,即将一个待推荐的用户‑物品二部图输入到该最优网络中,就会准确给出所有用户的推荐列表。本发明鲁棒性更强,推荐结果更稳定和准确,同时明确挖掘了用户和物品在用户‑物品二部图上的邻居信息,通过整合用户‑物品二部图上丰富的邻域信息,丰富了用户和物品节点的邻域关系,使得网络的推荐性能得到了进一步的提升。

Patent Agency Ranking