-
公开(公告)号:CN118429622A
公开(公告)日:2024-08-02
申请号:CN202410611543.0
申请日:2024-05-16
Applicant: 安徽大学
IPC: G06V10/25 , G06V20/40 , G06V10/40 , G06V20/70 , G06V10/52 , G06V10/80 , G06V10/82 , G06V10/26 , G06V20/17 , G06N3/0499 , G06N3/048 , G06N3/0464 , G06N3/045
Abstract: 本发明公开了基于河流信息引导的污染物高精度目标检测方法及系统,方法包括:提取含有污染问题的河流视频区段,提取视频帧;将视频帧输入SAM模型的图片编码器得到图像特征嵌入,将文本描述输入Grounding DINO模型,Grounding DINO模型的输出结果输入到SAM模型的提示编码器得到提示特征嵌入;将图像特征嵌入以及提示特征嵌入均输入区域解耦模块得到先验增强特征;将视频帧输入检测器骨干网络获得多尺度特征;将先验增强特征与多尺度特征分别采用FFM模块进行融合得到多尺度融合特征;将多尺度融合特征均输入检测头,对污染物进行识别;本发明的优点在于:减少人力物力,且检测精度高。
-
公开(公告)号:CN105721485A
公开(公告)日:2016-06-29
申请号:CN201610124868.1
申请日:2016-03-04
Applicant: 安徽大学
IPC: H04L29/06
CPC classification number: H04L63/045 , H04L63/062
Abstract: 本发明公开一种外包云环境下面向多数据拥有者的安全最近邻查询方法,包括以下步骤:管理服务器根据外包属性密码机制生成公钥及主密钥;数据拥有者划分数据集,对边界索引、数据块密钥、数据块进行加密后分别上传至管理服务器和云服务器;用户在本地加密查询请求后发送给管理服务器,管理服务器生成密钥发送给用户并更新查询请求发送至云服务器;云服务器接收到查询请求后将数据块部分解密的密钥和重加密密文发送给用户,用户获取加密后包含真实所述查询点的数据块,并解密后计算出最近邻。本发明基于外包属性密码机制实现了安全最近邻查询,保护了数据隐私的同时隐藏了数据访问模式,并且与现有方法相比有效地降低了用户开销。
-
公开(公告)号:CN105554105A
公开(公告)日:2016-05-04
申请号:CN201510934135.X
申请日:2015-12-14
Applicant: 安徽大学
CPC classification number: H04L67/12 , H04L63/0421 , H04L63/068
Abstract: 本发明公开一种面向多服务与隐私保护的车联网组密钥管理方法,依次包括以下步骤:(1)建立车联网两层结构的网络模型(冒号删除);(2)基于步骤(1)中的网络模型,描述车联网中多群组订购多服务的情景;(3)使用假名机制保护车辆的身份隐私,并且当有服务纠纷时,TA可以揭露车辆的真实身份;(4)TEK更新策略使用密钥更新槽KUS;(5)车辆在移交后,除了目标区域进行TEK更新以保证后向安全外,原区域也进行TEK更新以此保证前向安全性。本发明能够保证车辆的身份隐私性、车辆订购服务的不可否认性以及车辆在区域间移交时服务的连续性。
-
公开(公告)号:CN119477700A
公开(公告)日:2025-02-18
申请号:CN202411492639.6
申请日:2024-10-24
Applicant: 安徽大学
IPC: G06T3/4061 , G06T3/4046 , G06V10/44 , G06V10/77 , G06V10/80 , G06V10/82 , G06N3/0455 , G06N3/0442 , G06N3/0464
Abstract: 本发明提供一种引导解耦的无人机热红外图像超分辨率模型、方法及训练方法,属于计算机视觉和图像处理技术领域。模型集成了特定属性引导模块,对于低光照,有雾,和正常光照条件下的图像设计不同分支进行特征处理。确保在不同场景下对可见光图像实现有效特征提取。感知属性融合模块实现对三个分支的特征进行自适应聚合。多场景可见光引导模块使用多种注意力机制将实现可见光图像和热红外图像的特征交互,实现可见光图像对热红外图像的高效引导。与现有最先进的单图像超分辨率方法和引导型超分辨率方法相比,本发明恢复了更丰富的纹理和结构细节,并在评估指标和视觉感知方面有更好的表现。
-
公开(公告)号:CN119445519A
公开(公告)日:2025-02-14
申请号:CN202411580951.0
申请日:2024-11-07
Applicant: 安徽大学
IPC: G06V20/56 , G06V20/40 , G06V10/80 , G06V10/82 , G06N3/045 , G06N3/048 , G06V10/764 , G06V10/766 , G06N3/0464
Abstract: 本发明公开了一种基于实例特征引导的视频车道线检测方法及系统,方法包括:构建视频车道线检测网络,包括骨干网络、颈部网络、线锚特征交互融合模块;骨干网络和颈部网络组成共享权重的两个多层次特征提取分支网络;获取当前帧图像和参考帧图像,并将两幅图分别送入两个多层次特征提取分支网络中,获取两幅图像的多层级图像特征;初始化分布在图像上的线锚,并将其与两幅图像的多层级图像特征一并送入线锚特征交互融合模块中,从高层级到低层级逐渐细化线锚的位置,以获取车道检测结果;对构建的视频车道线检测网络进行训练优化,获取最佳视频车道线检测网络进行车道检测。在面临困难场景的情况下,本发明能够充分利用视频中所蕴含的时序信息,结合参考帧中的车道线实例特征,作为补充和提示,能够有效地推理出完整的车道线实例,辅助当前帧的检测,提高模型的准确性和鲁棒性。
-
公开(公告)号:CN118071804A
公开(公告)日:2024-05-24
申请号:CN202410194034.2
申请日:2024-02-21
Applicant: 安徽大学
Abstract: 一种基于混合变形的多模态遥感图像配准方法及存储介质,属于计算机视觉技术领域,解决复杂变形场景下的多模态图像配准问题,获取待配准的不同模态的遥感图像对,利用掩码学习的特征提取器获得图像特征,将图像特征送入刚性配准模型,获取变换参数和粗配准结果,将粗配准结果和目标图像再次经过特征提取器处理,将图像特征送入非刚性配准模型获取变换参数,对原始待配准图像进行处理获得配准结果,计算变换参数误差和重投影误差,根据误差更新模型参数,使用联合配准网络对图像进行处理得到配准的结果,计算图像的角点误差损失;本发明将刚性配准和非刚性配准方法结合在一起对遥感图像进行配准,采用双向配准策略来增加模型的鲁棒性和准确性。
-
公开(公告)号:CN117746200A
公开(公告)日:2024-03-22
申请号:CN202311841979.0
申请日:2023-12-27
Applicant: 安徽大学
Abstract: 本发明提供基于二阶注意力的多模态自适应融合方法及方法,系统包括:本发明在注意力块上引入二阶的交叉注意力实现多模态注意力互增强,同时对注意力的不同区域采取不同的输入,将横向相邻的区域也纳入考量;在筛选背景token时,利用两个模态分支的注意力权重对所有token进行排序,按照固定比例消除背景token。本发明解决了特征融合算法计算量大导致框架模型的推理速度较低,以及候选消除的效果稳定性较差的技术问题。
-
公开(公告)号:CN117726949A
公开(公告)日:2024-03-19
申请号:CN202311188848.7
申请日:2023-09-14
Applicant: 安徽大学
Abstract: 本发明提供基于场景信息解耦引导的极小物体检测方法及系统,方法包括获取大规模高空遥感卫星图像解耦的场景上下文信息;将解耦后的特征图送入前景增强模块中,以产生增强前景特征图;将获取的前景特征图与主干网络提取的特征图送入场景信息融合模块;通过对融合的特征图进行上采样,得到对极小目标的检测。本发明解决了在大规模高空遥感卫星图中对于密集极小目标的场景下,存在的误检率高、目标分类错误和运动轨迹偏差的技术问题。
-
公开(公告)号:CN114444597B
公开(公告)日:2024-03-15
申请号:CN202210096431.7
申请日:2022-01-26
Applicant: 安徽大学
IPC: G06V10/774 , G06N3/0464 , G06N3/08 , G06V10/40 , G06V10/80 , G06V10/82
Abstract: 本发明公开一种基于渐进式融合网络的视觉跟踪方法及装置,方法包括基于一对配准的多模态视频,获取候选样本;将候选样本送入主干网络,生成候选样本的特征图,主干网络包括三个卷积层,每个卷积层加入基于属性的渐进式融合模块,基于属性的渐进式融合模块包括依次连接的属性融合模块、属性聚合模块和增强融合模块;将特征图按照通道维度进行拼接后送入全连接模块,得到目标位置。本发明通过将单个融合步骤给分离为一种三阶段的渐进式的融合方式,使用小规模的训练数据就能有效地训练,解决了对大规模数据的依赖的问题。
-
公开(公告)号:CN117456390A
公开(公告)日:2024-01-26
申请号:CN202311476090.7
申请日:2023-11-07
Applicant: 安徽大学
Abstract: 本发明提供了一种多视角单目标跟踪方法,包括:采集多个场景的视频数据,获得无人机视频序列和地面视频序列;输入两个视频序列,模型在每一帧跟踪处理前返回过去k帧两个视角的跟踪结果,将两个视角的跟踪结果做差,得到偏移量序列;将偏移量序列输入到偏移量预测模块,预测出当前帧的目标偏移量,根据上一帧跟踪结果确定原始搜索区域,得到响应分数;判断无人机搜索区域和地面搜索区域的质量,响应分数越高,搜索区域质量越好,反之越差,用质量好的搜索区域以及预测出来的偏移量,计算另一个视角搜索区域调整后的位置;将两个视角的搜索区域送入多视角跟踪器;还提供一种多视角单目标跟踪装置,引入偏移量,保证搜索区域尽可能包含跟踪目标。
-
-
-
-
-
-
-
-
-