-
公开(公告)号:CN112926453B
公开(公告)日:2022-08-05
申请号:CN202110213933.9
申请日:2021-02-26
Applicant: 电子科技大学
Abstract: 本发明公开了基于运动特征增强和长时时序建模的考场作弊行为分析方法,属于视频行为识别领域和深度学习领域,首先收集数据集,再对数据进行行为类别的标注并将视频流提取为图像帧,基于运动特征增强的方法提升模型对运动目标的捕获能力,通过特征谱移位方式进行帧之间的信息融合,基于时序金字塔的方法对长时的时序关系进行建模,完成识别模型的搭建;然后根据数据集获得的图像采用Xavier方法对行为识别分类模型进行初始化,采用分段抽取的方式获得视频帧的采样序列,基于分类模型的损失函数进行迭代到预设迭代次数,完成模型的训练,最后使用通过抽样获得的视频帧序列进行推理测试,得到具体的行为类别结果。
-
公开(公告)号:CN114821766A
公开(公告)日:2022-07-29
申请号:CN202210229686.6
申请日:2022-03-10
Applicant: 电子科技大学
Abstract: 本发明针对单一数据形式下行为识别下特征提取不充分的问题,提供一种基于时空卷积和时间序列特征融合的行为识别方法,先获取视频流数据以及来自惯性传感器的运动数据,再从视频流数据提取出基于时空卷积的高层时空语义特征;同时,从运动数据流提取出基于时间序列的深层运动特征;将高层时空语义特征和深层运动特征进行融合得到融合特征,将融合特征输入多层感知器MLP映射得到输出值,输出值经Softmax完成行为识别分类。本发明基于两种特征融合的方式完成行为识别,弥补了主流算法使用单一特征缺失信息的缺点,并通过自注意力模块捕获关键时刻的动作特征,提升了网络对异常和突发行为的识别准确度。
-
公开(公告)号:CN113379655B
公开(公告)日:2022-07-29
申请号:CN202110537516.X
申请日:2021-05-18
Applicant: 电子科技大学
Abstract: 本发明公开了一种基于动态自注意力生成对抗网络的图像合成方法,属于计算机视觉领域。该方法首先选择生成对抗网络作为基本框架,并对训练图片进行归一化,还对正态分布进行采样得到噪声样本。本发明借鉴了Linformer算法和动态卷积算法,并对发明中使用的多头自注意力机制进行改进,增加了每个自注意力头之间的联系和约束,使得这些自注意力头可以去学习到图像的各种模式知识。本发明充分地发挥了动态自注意力机制和生成对抗网络的优势,提出的动态自注意力模块可大幅度降低多头自注意力机制的计算复杂度,并改善生成对抗网络的模式崩塌和训练不稳定等问题。
-
公开(公告)号:CN110674845B
公开(公告)日:2022-05-31
申请号:CN201910802205.4
申请日:2019-08-28
Applicant: 电子科技大学
IPC: G06V10/764 , G06V10/80 , G06K9/62
Abstract: 本发明提供一种结合多感受野注意与特征再校准的菜品识别方法,包括:提取出特征金字塔的特征谱;对特征谱进行两种不同尺度的卷积,得到两个不同感受野的特征谱;对两个不同感受野的特征谱进行相加再卷积得到融合感受野的特征谱;对融合感受野的特征谱进行softmax操作获得融合感受野的权重谱;将获得的融合感受野的权重谱与两个不同感受野特征谱相乘,得到两个不同的注意力谱;对融合感受野的特征谱通过可变形卷积进行特征校准,得到融合感受野的特征校准谱;特征金字塔的特征谱、不同注意力谱、特征校准谱都对相应的元素相加起来就得到的特征谱来进行菜品识别。处理后的特征谱能增加菜品的细节信息并让有效特征都分布在菜品位置上,能提升识别准确率。
-
公开(公告)号:CN114494284A
公开(公告)日:2022-05-13
申请号:CN202111635864.7
申请日:2021-12-29
Applicant: 电子科技大学
Abstract: 本发明的目的在于提供一种基于显式监督区域关系的场景解析模型及方法,属于计算机视觉中的图像分割技术领域。本发明所公开的场景解析模型通过对场景图片中的区域内和区域间关系分别建模,并在网络训练过程中给予两种区域关系对应的显式监督信息,使得区域内关系模块利用了更准确的区域内类别先验信息,提高了困难类别的判别能力;通过区域间关系模块捕捉了更准确的区域间类别相互关系,提高了相似类别的分辨能力,具有解析准确率高、额外计算复杂度低等特点。
-
公开(公告)号:CN112926662B
公开(公告)日:2022-05-03
申请号:CN202110222614.4
申请日:2021-02-25
Applicant: 电子科技大学
Abstract: 本发明提供一种基于多尺度语言嵌入REC的目标检测方法,把语言特征转化为不同尺度的卷积核,并与视觉特征进行卷积,得到语言特征与视觉特征每个点及其周围的点的相似度,将得到的相似度谱作用回原始视觉特征上,加强与语言相关的视觉特征的表达,同时引入全局视觉语言相互作用信息及位置信息,预测被描述的目标的位置,提升了网络对于视觉上下文的利用能力,相比于基准的普通基于单阶段REC的目标检测方法,预测准确率更高。
-
公开(公告)号:CN109344720B
公开(公告)日:2022-03-15
申请号:CN201811023852.7
申请日:2018-09-04
Applicant: 电子科技大学
IPC: G06V40/10 , G06V20/40 , G06V10/40 , G06V10/771 , G06V10/764 , G06K9/62
Abstract: 本发明公开了一种基于自适应特征选择的情感状态检测方法,属于计算机视觉技术邻域。本发明基于自适应特征选择可以有效地约束特征之间的类内距离与类间距离,有效减少特征之间的冗余信息和噪声,提取的特征图具有一定的鲁棒性,能够区别较为相似的类别。相比传统的算法,该方案能够更有效地对室内场景下多人的情感状态进行检测,且具有更高的精度和实时性。本发明可用于识别老年人的情感状态,通过移动终端的摄像头实时捕捉室内场景下的视频和图像数据,再基于内嵌的处理方式,利用深度神经网络实时计算自适应特征,准确快速的识别老年人的情感状态。
-
公开(公告)号:CN109344714B
公开(公告)日:2022-03-15
申请号:CN201811011543.8
申请日:2018-08-31
Applicant: 电子科技大学
IPC: G06V40/16
Abstract: 本发明公开了一种基于关键点匹配的视线估计方法,属于计算机视觉领域的视线估计。本发明通过深度网络初步定位瞳孔关键点之后,采用SGBM模板匹配方法去进一步修正瞳孔中心位置。相比于现有的视线估计方法能够更精确的定位瞳孔中心位置,尤其是对于头部或眼球偏置较大的情况。本发明的实施,能够有效的提升视线估计的精度,相比于瞳孔角膜反射方法,只采用了单个网络摄像头,大大降低了设备成本。相比于现有基于单图像处理的方法,不需要限制头部的姿态,算法的鲁棒性大大增加。通过于3D人脸模型的匹配,避免的目前已有数据库无法表示所有姿态的局限性,从而增加了该方法的实用性。
-
公开(公告)号:CN110738624B
公开(公告)日:2022-02-01
申请号:CN201910995780.0
申请日:2019-10-18
Applicant: 电子科技大学
Abstract: 本发明提供了一种区域自适应的图像去雾系统,包括预去雾模块、与所述预去雾模块连接的自适应区域划分模块、分别与所述自适应区域划分模块连接的余雾去除模块和纹理修复模块,以及分别与所述余雾去除模块和纹理修复模块连接的特征融合模块。基于上述系统,本方法还公开了一种区域自适应的图像去雾方法。本发明通过将图像去雾和纹理修复解耦到两个不同的子模块来处理单图像去雾问题,避免了之前的方法只使用一个网络来学习两个不同的目标函数,提出的两阶段去雾网络能够通过区域自适应的方式来恢复清晰图像,并避免过去雾与欠去雾问题。
-
公开(公告)号:CN109242864B
公开(公告)日:2021-09-24
申请号:CN201811087399.6
申请日:2018-09-18
Applicant: 电子科技大学
Abstract: 本发明公开了一种基于多分支网络的图像分割结果质量评价方法。属于图像处理技术领域。本发明为了取得评价效果更好的图像分割结果质量评价方案,采用基于多分支卷积神经网络的评价网络对分割结果进行评价得出其质量预测分数,为后续的分割性能优化和最佳分割结果挑选提供依据。与现有的对不同图像分割结果进行评的评价方式相比,本发明利用多分支的卷积神经网络,从多方面提取分割图像更全面的特征,从而解决了现有评价方式在关联性较小分割结果差距较大,以及在较为相似的分割结果评价处理时效果不佳的技术问题。
-
-
-
-
-
-
-
-
-