-
公开(公告)号:CN118171813A
公开(公告)日:2024-06-11
申请号:CN202410280518.9
申请日:2024-03-12
Applicant: 长沙理工大学
IPC: G06Q10/063 , G06Q10/04 , G06Q50/40 , G06F18/213 , G06F18/25 , G06N3/0464 , G06N3/048 , G06N3/049 , G06N3/08
Abstract: 本发明公开了一种基于跨时间的全局空间注意力网络的交通预测方法,该方法设计了一个交通预测模型。该模型包括跨时间的全局空间注意力模块、全连接时间卷积块、时间注意力块和一个门控输出模块。首先利用跨时间的全局空间注意力模块建模交通矩阵中跨时间的空间依赖性,直接捕获不同节点在多时间维度之间的相关性。随后利用时间卷积块和时间注意力块分别捕获节点自身的短期连续时间相关性和长期语义相关性。最后使用一个门控输出模块融合不同模块提取到的交通特征。由于交通流量在实际道路中存在跨时间的空间依赖,本发明针对真实交通模式设计了跨时间的全局空间注意力模块能够更合理的提取到交通数据之间存在的空间相关性,提高了预测精度。
-
公开(公告)号:CN116744020A
公开(公告)日:2023-09-12
申请号:CN202210206966.5
申请日:2022-03-04
Applicant: 长沙理工大学
IPC: H04N19/593 , H04N19/96 , H04N19/186 , H04N19/147 , H04N19/119
Abstract: 本发明涉及一种基于相邻块深度的通用视频编码帧内快速预测方法,包括下列步骤:1)判断当前帧中划分块是否为亮度块,若是则执行快速预测;2)对视频中每个内部画面帧(I帧)图像中帧内预测时划分的块大小进行判断,对于尺寸小于等于32的块,进行下一步处理;3)根据获取到的相邻块的深度,到标志nei_flag。如果两个左侧相邻块和上侧相邻块深度相等,则nei_flag为1。如果两个相邻块的深度不相等且相差1时,则nei_flag为0。相邻块为其他情况时nei_flag为‑1;4)根据当前CU块的深度和nei_flag来得到是否应该进行提前终止划分的标志isSplit。如果nei_flag为1,且当前CU的深度等于或者大于左侧相邻块深度加1,则isSplit为1,提前终止当前CU继续划分。如果nei_flag为0,且当前CU的深度等于或者大于两个相邻块中深度更大的加1,则isSplit为0,提前终止当前CU继续划分。否则isSplit为‑1,CU划分与VVC默认过程的保持一致选择最优划分结果。
-
公开(公告)号:CN116092294A
公开(公告)日:2023-05-09
申请号:CN202310194728.1
申请日:2023-03-02
Applicant: 长沙理工大学
IPC: G08G1/01 , G08G1/048 , G06F30/27 , G06F18/214 , G06F17/16 , G06F119/02
Abstract: 本发明涉及一种基于Transformer与图注意力网络的高速公路交通流量预测方法,该交通流量预测模型包含图注意力网络与Transformer网络。图注意力网络用于捕获交通流量的空间相关性,Transformer用于捕获交通流量的时间相关性,利用线性层输出每一步的预测结果。该模型将交通流量划分为近期流量、日周期流量、周周期流量,对交通流量的周期性显式建模。此外,该模型将天气因素引入该预测模型中用于动态地调整不同时间片之间的依赖程度。图注意力网络中使用注意力机制结合预定义邻接矩阵对交通流量的空间相关性动态建模。使用Transformer网络对交通流量的时间相关性进行建模,提高长期预测的精度。本发明中涉及的交通流量预测方法基于数据驱动,无需人工特征工程设计,实施起来更加灵活。
-
公开(公告)号:CN110113607B
公开(公告)日:2022-02-01
申请号:CN201910336663.3
申请日:2019-04-25
Applicant: 长沙理工大学
IPC: H04N19/132 , H04N19/177 , H04N19/19 , H04N19/42 , H04N19/597
Abstract: 本发明涉及一种基于局部与非局部约束的压缩感知视频重建方法,在压缩感知重建视频模型中引入局部与非局部约束,利用基于图像帧最小全变差(Total Variation,TV)约束和基于序列时空相似块矩阵的低秩约束,引导优化模型的解趋向三维视频序列的固有特征。优化问题求解过程中首先采用传统方法进行对视频中每帧图像压缩感知图像进行重建,得到的图像帧的一个初始估计,然后引入辅助变量并将问题分解为一个TV优化子问题和一个低秩优化子问题,交替求解,并在内循环中进一步地将TV子问题和低秩优化子问题分解为可微的和求解的部分分别求解。由于发明的方法充分考虑了图像帧的时空局部与非局部特征,因而提高了图像的重建质量。
-
公开(公告)号:CN110650340B
公开(公告)日:2022-01-14
申请号:CN201910336500.5
申请日:2019-04-25
Applicant: 长沙理工大学
IPC: H04N19/132 , H04N19/177 , H04N19/19 , H04N19/42 , H04N19/597 , G06T5/00 , G06V10/40 , G06V10/772 , G06V20/40
Abstract: 本发明涉及一种时空复用的压缩视频成像方法,包括下列步骤:1)设计成像设备如附图所示包括一个标定系统和成像系统,并通过标定系统,获得一个二值的输入矩阵,同时采用一个复数矩阵拟合多重散射传递函数;2)在成像系统采用空间复用和时间复用两个压缩感知模块顺序对进入系统的场景光学信号进行三维压缩感知采样,在一次曝光时间内获取多帧空间上压缩的场景图像信号;3)从输入的三维信号的三个切面对信号进行解析表示,并通过学习得到图像帧的解析稀疏表示字典和视频信号的时间稀疏表示特征;4)根据视频重建的优化模型,首先重建一个初始视频估计,并将多约束的优化问题分解为多个子问题,采用交替方向方法求解,完成视频帧的图像重建。
-
公开(公告)号:CN113850307A
公开(公告)日:2021-12-28
申请号:CN202111076265.6
申请日:2021-09-14
Applicant: 长沙理工大学
Abstract: 本发明公开了一种基于深度学习的图像修改区域定位方法、系统及存储介质,通过提取目标RGB图像的图像残差,基于图像残差,使用第一神经网络提取目标RGB图像中的修改过的区域与未修改过的区域之间高频分量的不一致性特征,根据提取的不一致性特征生成第一特征图;提取目标RGB图像的局部二值模式特征,将局部二值模式特征与目标RGB图像进行合并,得到合并图像,使用第二神经网络提取合并图像中的修改过的区域与未修改过的区域之间的块相似性特征,根据提取的块相似性特征生成第二特征图;融合第一特征图和第二特征图得到目标特征图,基于目标特征图,定位目标RGB图像的图像修改区域。该方法能够高效、准确地定位图像中的修改区域。
-
公开(公告)号:CN107609595B
公开(公告)日:2020-09-11
申请号:CN201710846757.6
申请日:2017-09-19
Applicant: 长沙理工大学
Abstract: 本发明涉及一种线裁剪图像检测方法,分为训练和测试二个阶段;训练阶段步骤:对训练集图像进行灰度化处理,再对训练集图像逐个提取其LBP特征和WLD特征,使用Kruskal‑Wallis方法对提取的特征进行特征选择并确定最优的阈值,将经过特征选择后的LBP特征和WLD特征进行串联融合形成训练特征集;测试阶段步骤:对测试图像按训练阶段步骤进行灰度化处理,再提取LBP特征和WLD特征,使用训练阶段确定的最优的阈值对提取的LBP特征和WLD特征进行特征选择,再进行特征融合形成测试特征集;由SVM分类器自动寻找最优参数来判断测试图像是否经过了线裁剪操作。该方法可广泛用于线裁剪图像检测领域,提高检测准确度。
-
公开(公告)号:CN104822063B
公开(公告)日:2017-09-15
申请号:CN201510180111.X
申请日:2015-04-16
Applicant: 长沙理工大学
IPC: H04N19/114 , H04N19/573 , H04N19/177 , H04N19/61
Abstract: 本发明涉及压缩感知和视频编解码领域,是一种基于字典学习残差重建的压缩感知视频重建方法。该方法先对视频划分图像组(Group of Picture,GOP),每组指定关键帧和非关键帧,关键帧和非关键帧采用不同采样率、不同方法逐帧逐块顺序编码。在解码端,取一个GOP,先采用多参考帧加权平均获得其初始重建;再采取迭代法获得GOP的最终重建。在迭代中先使用多参考帧对当前帧进行运动估计获得其运动补偿图像;接着采用多参考帧残差域字典学习,获得当前帧各个块的残差域自适应基,进行残差重建;最后,根据各帧的运动补偿图像和残差,得到该GOP的最终重建,进而得到重建视频,实现压缩感知视频的高质量重建。该方法可广泛应用于基于压缩感知的视频重建等多个领域。
-
公开(公告)号:CN113850307B
公开(公告)日:2025-02-14
申请号:CN202111076265.6
申请日:2021-09-14
Applicant: 长沙理工大学
IPC: G06V10/74 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于深度学习的图像修改区域定位方法、系统及存储介质,通过提取目标RGB图像的图像残差,基于图像残差,使用第一神经网络提取目标RGB图像中的修改过的区域与未修改过的区域之间高频分量的不一致性特征,根据提取的不一致性特征生成第一特征图;提取目标RGB图像的局部二值模式特征,将局部二值模式特征与目标RGB图像进行合并,得到合并图像,使用第二神经网络提取合并图像中的修改过的区域与未修改过的区域之间的块相似性特征,根据提取的块相似性特征生成第二特征图;融合第一特征图和第二特征图得到目标特征图,基于目标特征图,定位目标RGB图像的图像修改区域。该方法能够高效、准确地定位图像中的修改区域。
-
公开(公告)号:CN118781631A
公开(公告)日:2024-10-15
申请号:CN202410922870.8
申请日:2024-07-10
Applicant: 长沙理工大学
IPC: G06V40/10 , G06V10/40 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/084 , G06V10/764 , G06V20/52
Abstract: 本发明公开了一种基于通道级特征选择与融合网络的可见与红外行人重识别方法。包括数据预处理模块、特征选择模块、通道级特征融合模块、损失计算优化、相似度计算以及获取查询结果模块。其特征在于使用基于ResNet‑50的双流特征提取器构建主干网络,利用在ImageNet上预训练的模型初始化主干网络,提出的特征选择模块,利用行人样本在不同通道上特征重要性的差异来实现特征选择;提出的通道级特征融合模块根据被选择特征在各对应通道下的通道掩膜进行双通道均值加权融合得到融合特征,并且防止了融合过程中部分重要特征信息被干扰。所述的方法提升了行人特征的多样性,减小了不同模态图像间的差异,并在两个数据集上的查询结果均取得了优秀的性能。
-
-
-
-
-
-
-
-
-