-
公开(公告)号:CN114627413A
公开(公告)日:2022-06-14
申请号:CN202210241438.3
申请日:2022-03-11
Applicant: 电子科技大学
Abstract: 本发明公开了一种视频密集事件内容理解方法,包括以下步骤:S1、对输入视频进行特征提取;S2、采用基于双向LSTM的双线性注意力机制特征融合方法提取的特征进行融合;S3、候选事件生成;S4、有序视频序列生成:采用深度学习的方式对候选时间集合中的候选事件数据进行筛选;S5、利用三栈式视频内容描述生成网络生成针对输入视频的多个描述语句。本发明综合考虑视频的有效内容,从二维视觉特征,三维视觉特征,音频特征,视频语义特征四个层次分别进行了提取。通过本发明的方法能够对于视频当中的事件进行良好的划分,并进行结构化的特征表达。最终输出主题一致,逻辑关联性强,内容描述完整的描述段落,对于整个视频的多个事件实现理解。
-
公开(公告)号:CN113011443B
公开(公告)日:2022-06-03
申请号:CN202110443624.0
申请日:2021-04-23
Applicant: 电子科技大学
Abstract: 本发明公开了一种基于关键点的目标检测的特征融合方法,主要解决现有方法不能有效融合高层的语义信息和低层的位置信息、对小目标的检测效果不佳的问题。该方法包括特征提取模块、特征融合模块、热力图生成模块,后处理模块;其中,所述特征融合模块包括特征相加模块和特征拼接模块。通过上述设计,本发明通过特征相加模块和特征拼接模块在基于关键点的目标检测中将高层特征的语义信息与低层特征的位置信息有效进行融合,使得图像的多层特征图通过自顶向下和自底向上的连接能够很好地融合不同尺度的信息,极大增强特征表达能力。因此,适宜推广应用。
-
公开(公告)号:CN112926655B
公开(公告)日:2022-05-17
申请号:CN202110211935.4
申请日:2021-02-25
Applicant: 电子科技大学
Abstract: 本发明公开了一种图像内容理解与视觉问答VQA方法、存储介质和终端,方法包括以下步骤:将图像和待回答问题输入至训练好的预测模块进行回答;所述预测模块包括顺次连接的融合注意力模块、双线性模型和分类器,所述分类器输出回答。本发明按照“对图像和问题进行特征表示、对图像和陈述性语句进行特征表示、融合特征矩阵、根据问题特征学习图像特征、根据正确陈述性语句学习图像特征、使用正确陈述性语句正确引导模型、得出结果”的思路,完成图像内容的题解与视觉问答(VQA)任务;因此提供了一种图像和问题关键词之间的密集交互的融合注意力方法,能够学习图像和文本的密集交互,从而进行图像和问题关键词之间的关系推断。
-
公开(公告)号:CN110555420B
公开(公告)日:2022-04-12
申请号:CN201910848205.8
申请日:2019-09-09
Applicant: 电子科技大学
Abstract: 本发明公开了一种基于行人区域特征提取和重识别融合模型网络及方法,它包括:区域提取模块:用于根据全局特征图搜索行人出现的区域,并从中生成提取区域,以获得行人目标的检测结果并对这些提取区域的特征进行收集和整合处理。通过一个深度卷积神经网络即可实现对行人特征的提取和识别,并通过区域特征的提取避免了在原场景图片中对行人图片的截图、存储和预处理操作,使得整体网络处理速度更加快速,整体网络模型体积更小,能够部署到硬件条件更低的环境中。
-
公开(公告)号:CN112988380A
公开(公告)日:2021-06-18
申请号:CN202110211957.0
申请日:2021-02-25
Applicant: 电子科技大学
Abstract: 本发明属于深度学习领域,具体公开了一种基于Kubernetes的集群负载调节方法及存储介质,方法包括:对集群中的节点添加不同的标签,并将添加标签后的节点分配给不同的使用场景;对同一使用场景中的节点的忙闲程度进行打分,得出所有节点的得分并计算得分平均值,统计得分低于得分平均值的节点得到忙碌节点并对忙碌节点添加污点值;根据污点值的添加情况对同一使用场景中的集群负载进行调节。本发明面向多团队共享GPU资源池这一应用场景,通过为节点添加标签划分不同的使用场景,确保不同团队能独占一部分节点,再通过周期性衡量集群的负载情况,使集群做到负载均衡,提高平台的稳定性与可用性。
-
公开(公告)号:CN112927353A
公开(公告)日:2021-06-08
申请号:CN202110210926.3
申请日:2021-02-25
Applicant: 电子科技大学
Abstract: 本发明公开了基于二维目标检测和模型对齐的三维场景重建方法、存储介质及终端,属于三维场景重建技术领域,方法包括获取图像的包围框信息,根据图像的包围框信息结合相机内参计算三维空间中的视锥体范围,并根据视锥体范围对待重建的扫描场景进行裁剪;在裁剪后的扫描场景进行模型检索、模型对齐处理,得到与裁剪后的扫描场景模型匹配的对象模型;预测所有与裁剪后的扫描场景模型匹配的第一对象模型的位置姿态参数,根据位置姿态参数使第一对象模型替换扫描场景中的对应点云,实现三维场景的重建。本发明在裁剪后的扫描场景进行模型检索、模型对齐处理,减小了模型检索、模型对齐的计算量,加快了三维场景重建的计算速度,三维场景重建效率高。
-
公开(公告)号:CN111553277A
公开(公告)日:2020-08-18
申请号:CN202010350217.0
申请日:2020-04-28
Applicant: 电子科技大学
Abstract: 本发明属于监督学习领域,具体公开了一种引入一致性约束的中文签名鉴定方法及终端,该方法利用损失函数对中文签名鉴定全卷积网络模型进行训练,所述损失函数L包括Focal损失函数;所述损失函数L还包括与Focal损失函数共同使用的一致性约束损失函数。本发明在中文离线签名鉴定的全监督领域中创造性地运用了一致性损失,首先依赖第一组训练样本对验证签名做出正确预测,并据此通过一致性损失将验证结果信息传递至扩增的对应样本,随着模型训练时间的拉长,越来越多翻转后的样本将会得到正确预测,这也表明模型减少了背景信息的干扰,提取了更多的笔迹信息特征,从而改善了笔迹信息稀疏的难题,提高了签名鉴定率。
-
公开(公告)号:CN111476367A
公开(公告)日:2020-07-31
申请号:CN202010280453.X
申请日:2020-04-10
Applicant: 电子科技大学
Abstract: 本发明公开了图像识别领域的一种任务拆分式脉冲神经网络结构预测及网络抗干扰方法,所述的方法的包括以下步骤:1)任务拆分式脉冲神经网络TEN的搭建;2)TEN网络配合权重图像化比较WGC预测方案进行模型训练;3)对模型训练得到的权重进行增强处理。在无监督脉冲神经网络结构方面,提出任务拆分的网络组织思想,通过将一个完整网络拆分为若干子网络,实现对一个较大分类任务的单任务拆分,使得每个子网络分别学习一个不同的类别特征,显著提升网络对所有类别的模式学习效果和网络的分类表现。通过对权重添加若干组干扰显著提升了TEN网络的抗干扰性和鲁棒性。
-
公开(公告)号:CN103778436B
公开(公告)日:2017-04-05
申请号:CN201410025106.7
申请日:2014-01-20
Applicant: 电子科技大学
IPC: G06K9/62
Abstract: 该发明公开了一种基于图像处理的行人姿态检测方法,首先建立行人姿态模板库:用摄像机拍摄行人视频,再对拍摄到的视频进行去噪处理,通过计算去噪视频的帧间和帧内差值提取出行人样本轮廓,再对该样本轮廓进行聚类处理得到各种行人姿态,组成行人姿态模板库;其次提取行人实际轮廓:用摄像机拍摄行人视频,采用上述同样方法提取行人实际轮廓;最后将提取的行人实际轮廓与行人姿态模板库进行匹配,找出与之最匹配的姿态,即为拍摄行人的姿态。从而具有在各种复杂检测环境、目标纹理模糊、目标尺度较小的情况下具有较好的鲁棒性和准确率,并快速检测出行人姿态的效果。
-
公开(公告)号:CN119628932A
公开(公告)日:2025-03-14
申请号:CN202411799270.3
申请日:2024-12-09
Applicant: 电子科技大学
IPC: H04L9/40 , G06N3/0464 , G06N3/0475 , G06N3/08 , G06N20/00
Abstract: 本发明所提供一种基于扩散模型的网络入侵检测增强方法,通过扩散模型逐步向训练数据添加噪音,然后学习去噪的过程来建模数据分布。基于此,本发明能够通过合成虚拟样本来增强训练样本,尤其是增强样本数较少的类别,从而解决样本不均衡带来的检测精度不高的问题。同时,该方法能够增强对抗样本,在保持对抗样本核心特征的同时,引入一定程度变化,合成更加多样化的对抗样本,从而增强检测模型对未见对抗样本的防御性。通过改进现有扩散模型,使其适用于入侵检测数据,通过自适应非线性噪音提升扩散模型的数据合成效果。进一步的,提供了一种优选的扩散模型,该扩散模型的随机噪音采用自适应非线性噪音,噪音水平根据时间动态调整。
-
-
-
-
-
-
-
-
-