-
公开(公告)号:CN105930876A
公开(公告)日:2016-09-07
申请号:CN201610317701.7
申请日:2016-05-13
Applicant: 华侨大学
CPC classification number: G06K9/6269 , G06K9/6223 , G06K9/66
Abstract: 本发明提供一种基于逆向训练的植物图像集分类方法,该方法包括四个步骤:(1)植物数字图像预处理;(2)训练集的聚类和划分,采用K均值聚类法;(3)分类器训练,测试集和混合训练集合的分类;(4)集成分类,输出测试集的类别标签。该方法采用的是逆向训练的方法,具有良好的分类效果和良好的可理解性。
-
公开(公告)号:CN117975173B
公开(公告)日:2024-06-21
申请号:CN202410389340.1
申请日:2024-04-02
Applicant: 华侨大学
IPC: G06V10/764 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/048
Abstract: 本发明提供一种基于轻量化视觉转换器的儿童邪典图片识别方法和设备,涉及图像识别技术领域。识别方法包含S1、获取待识别的卡通图像。S2、对卡通图像进行预处理。S3、预处理后的卡通图像输入训练好的基于轻量化视觉转换器的实时儿童邪典图片识别模型,获取预测向量。S4、基于预测阈值对预测向量进行比较判断,以判断卡通图像是否属于儿童邪典图片。基于轻量化视觉转换器的实时儿童邪典图片识别模型的网络结构包括依次连接的第一卷积层网络、第一移动网络、第二移动网络、第三移动网络、第四移动网络、第一轻量化转换器网络、第五移动网络、第二轻量化转换器网络、第六移动网络、第三轻量化转换器网络、第二卷积层网络和多层感知机。
-
公开(公告)号:CN111914947B
公开(公告)日:2024-04-16
申请号:CN202010841858.6
申请日:2020-08-20
Applicant: 华侨大学
Abstract: 本发明提供一种基于特征融和图像实例分割方法、装置、设备及存储介质,方法包括:获取待分割图像,将所述待分割图像通过去除BN层的ResNet卷积单元提取特征,获取特征图;将所述特征图与原始特征图输入到特征融合单元进行相加融合,将所述融合特征图输入到3×3的卷积单元,重新调整特征图,通过池化链从调整后特征图中提取背景上下文信息,融合多个不同感受野的特征图,获得池化后的特征图;将所述池化后的特征图输入到一个卷积单元,整合所述池化链的结果,获得整合后特征图;根据整合后特征图通过分类分割,获得实例分割结果。本发明通过自定义的特征融和模块进行处理,更高效的利用特征图信息,使最终处理的mask图信息更丰富,精确度更高。
-
公开(公告)号:CN117557972A
公开(公告)日:2024-02-13
申请号:CN202311393449.4
申请日:2023-10-25
Applicant: 华侨大学
IPC: G06V20/54 , G06V10/26 , G06V10/774 , G06V10/764 , G06V10/80 , G06V10/77 , G06V10/82 , G06N3/0464 , G06N3/09
Abstract: 本发明提供了一种车辆重识别的方法、装置、设备及可读存储介质,先通过获取车辆图像,调用车辆重识别模型对所述车辆图像分割并采用滑动窗口进行处理,以生成为多个相同尺寸且包含重叠像素的图块,接着,将多个相同尺寸且包含重叠像素的所述图块处理成序列,并在所述序列之前添加可学习的分类标记后将位置信息和非视觉信息一起编码生成图像编码特征;再接着,将所述图像编码特征分别输入进全局特征分支和局部特征分支进行编码以生成全局特征和局部特征;最后,根据所述全局特征生成一组特征权重,所述局部特征基于所述特征权重生成聚合特征,融合所述全局特征和所述聚合特征生成融合特征,其中,车辆重识别模型能够基于所述融合特征与所述车辆图像关联的检索序列。解决了不同场景的同一车辆难以区分的问题。
-
公开(公告)号:CN115497022A
公开(公告)日:2022-12-20
申请号:CN202211152789.3
申请日:2022-09-21
Applicant: 华侨大学
Abstract: 本发明实施例提供基于全局感知与提名关系挖掘的时序动作定位方法,涉及视频识别技术领域。其中,这种时序动作定位方法,其包含步骤S1至步骤S4。S1、获取待识别视频。S2、根据待识别视频,提取视觉特征。S3、将视觉特征输入预先训练好的时序提名生成网络模型,获取时序提名。S4、将时序提名输入预先训练好的时序提名分类网络模型,获取定位结果。定位结果包括动作类别和动作起止时间。时序提名生成网络模型通过图建模的方式动态捕获特征之间的关联性,实现动作边界与动作特征之间的信息交互,达到全局感知动作、背景、边界之间关系的目的。时序提名分类网络模型挖掘提名之间的潜在关系,实现更精准地定位与动作分类。
-
公开(公告)号:CN113642420A
公开(公告)日:2021-11-12
申请号:CN202110843573.0
申请日:2021-07-26
Applicant: 华侨大学
Abstract: 本发明提供了一种唇语的识别方法、装置及设备,包括:获取视频数据,并对所述视频数据进行处理,以获得唇部图像序列;对所述图像序列进行双向时序的特征提取,生成所述唇部图像序列的表观特征;调用LSTM模型,对所述表观特征的变化进行镜头转换的边界检测并生成检测结果,根据所述检测结果初始化所述LSTM模型的隐含层和记忆层;提取所述隐含层的编码特征,并根据所述编码特征获取单词预测序列。减少现有的唇语识别算法的复杂度、时间复杂度的同时保持较高的准确率。
-
公开(公告)号:CN113609948A
公开(公告)日:2021-11-05
申请号:CN202110861491.9
申请日:2021-07-29
Applicant: 华侨大学
Abstract: 本发明提供了一种视频时序动作的检测方法、装置及设备,方法包括:获取视频数据,并提取所述视频数据的视频特征;将所述视频特征输入至锚分支网络以及无锚分支网络,以获取所述锚分支网络输出的第一输出结果,及所述无锚分支网络输出的第二输出结果,其中,所述锚分支网络以及所述无锚分支网络并行处理所述视频特征;调用对齐损失函数对所述第一输出结果及所述第二输出结果进行融合处理,生成时序动作定位结果集。解决了现有技术中对数据集的动作标注往往很模糊的问题。
-
公开(公告)号:CN111914803A
公开(公告)日:2020-11-10
申请号:CN202010827853.8
申请日:2020-08-17
Applicant: 华侨大学
Abstract: 本发明提供一种唇语关键词检测方法、装置、设备及存储介质,其中方法包括:通过DNN方法训练,得到一个二分类的DNN模型;基于所述DNN模型,判断待检测的唇语视频中的每帧唇部图片的讲话状态,分离出所述唇语视频的讲话片段和非讲话片段;提取所述讲话片段,并通过唇语识别模型提取查询样例和讲话片段的每一帧唇部图片的特征,作为后验概率特征;基于所述后验概率特征构建相似度矩阵图;通过卷积神经网络分类模型对所述相似度矩阵图进行二分类,判断唇语视频中是否存在关键词。本发明通过端点检测、唇语识别器提取特征和构建相似度矩阵图,可降低未讲话片段对唇语关键词检测性能的影响,提高关键词检测的性能。
-
公开(公告)号:CN106778655B
公开(公告)日:2020-05-05
申请号:CN201611224676.4
申请日:2016-12-27
Applicant: 华侨大学
Abstract: 本发明涉及一种基于人体骨架的入口尾随进入检测方法,在入口前预设预警区域,行人进入预警区域后,通过摄像头实时检测行人的人体骨架;在预警区域内对受测行人规划尾随警戒区域,检测尾随警戒区域内的其他行人;如果其他行人的人体骨架满足报警规则,则发生报警。本发明实现了视频监控中行人尾随进入事件的智能监控,有效地对行人尾随进入这一高层次语义事件进行识别。同时为了提高行人检测的准确率和降低误检率,通过人体骨架交互的判断,对同行人进行识别,剔除因为同行事件引起的误警,进而实现对入口处,行人尾随进入的检测。本发明所述的方法实时性好,成本低,计算量少。而且采用低成本的深度摄像头,利于实施与推广。
-
公开(公告)号:CN106095829A
公开(公告)日:2016-11-09
申请号:CN201610381864.1
申请日:2016-06-01
Applicant: 华侨大学
IPC: G06F17/30
CPC classification number: G06F16/43
Abstract: 本发明涉及基于深度学习与一致性表达空间学习的跨媒体检索方法,针对图像与文本两种模态的跨媒体信息,从特征的选择及高度异构的两个特征空间的相似性估算这两个方法上入手,提出一个能教大幅度提高多媒体检索准确率的跨媒体检索方法。本发明所述的方法是一种针对图像与文本两种模态的多媒体信息相互检索方法,实现跨媒体检索准确率的较大幅度提高。本发明提出的模型中,采用经调整过的向量内积作为相似度度量算法,不仅考虑了两种不同模态特征向量的方向,而且在中心化后消除了指标量纲的影响,将向量中的每个元素减去元素的平均值,再计算去均值后的两个向量的相关性;能计算得到更为准确的相似度。
-
-
-
-
-
-
-
-
-