-
公开(公告)号:CN103997645A
公开(公告)日:2014-08-20
申请号:CN201410180404.3
申请日:2014-04-29
Applicant: 长沙理工大学
IPC: H04N19/11 , H04N19/159 , H04N19/147
Abstract: 本发明涉及一种快速的高效视频编码(HighEfficiencyVideoCoding,HEVC)帧内编码单元和模式决策方法,包括下列步骤:1)设置阈值的有效长度;2)对于视频序列的第一帧正常编码,并将每个最大编码单元(LargestCodingUnit,LCU)最终的编码深度和离散化全变差(DiscreteTotalVariation,DTV)值存入缓存区中;3)统计缓存区中的DTV,根据深度范围得出阈值和阈值;4)对于余下N-1帧,根据当前LCU的DTV值和阈值,跳过概率很小的深度,在每一深度搜索时采用基于方向梯度的快速模式搜索算法;5)将第+1帧设置为首帧,重复1)、2)、3)、4),直到编码完所有帧。该方法采用自适应的DTV阈值决策,减小宏块单元搜索的数量,采用基于方向梯度特征简化了模式搜索的过程,加快了编码速度。
-
公开(公告)号:CN118711356A
公开(公告)日:2024-09-27
申请号:CN202410280516.X
申请日:2024-03-12
Applicant: 长沙理工大学
IPC: G08G1/01 , G06N3/0464 , G06N3/0455
Abstract: 本发明公开了一种基于滑动窗口的局部动态空间注意力的交通预测方法。该方法的模型包括时间嵌入层、滑动窗口动态空间注意力模块、时间编码器以及卷积输出层,在时间嵌入层中将时间周期性信息嵌入到交通流信号矩阵中建模交通序列的周期性特征,滑动窗口动态空间注意力模块使用滑动窗口的方式动态捕获跨局部时间的空间依赖关系,利用时间编码器结合周期嵌入信息捕获交通流量的时间相关性,最后利用卷积输出层得到模型输出;得到交通预测结果。本发明综合考虑了交通时间序列数据的周期性特征以及局部时间内空间节点跨时间的依赖关系,解决了难以捕获交通网络复杂空的间相关性的问题,在公开数据集上的实验结果表明,本发明的方法拥有显著的优势。
-
公开(公告)号:CN116246465A
公开(公告)日:2023-06-09
申请号:CN202310194778.X
申请日:2023-03-02
Applicant: 长沙理工大学
Abstract: 本发明提出一种基于生成式时空演化建模的交通流量预测方法。该方法采用生成对抗网络来捕获交通节点之间随时间的演化关系,利用格拉姆角场将多节点交通序列转换为二维平面数据,并构建节点嵌入结合排布生成矩阵模拟全域交通网络的关联排布,生成表征某一特定时刻全域交通状况特征图。在预测问题的求解过程中,通过生成对抗网络对交通特征的演化关系进行学习,使用格拉姆角场生成每个交通侦测节点的二维图像表示,得到所有时间序列的特征图。通过节点嵌入和排布生成矩阵生成输入的特征排布,训练生成对抗网络生成预测时段的每个节点的交通序列数据。该方法充分考虑了每个节点上时间序列的独立以及交互演化关系,具有较高的预测准确性。
-
公开(公告)号:CN116070778A
公开(公告)日:2023-05-05
申请号:CN202310191458.9
申请日:2023-03-02
Applicant: 长沙理工大学 , 湖北武荆高速公路发展有限公司
Abstract: 本发明提出了一种基于多尺度空间特征挖掘的交通流量预测方法。该方法引入多尺度空间关系捕捉和依赖于注意力机制的空间关联权重模型来抓取交通流中全方位的空间依赖关系。该方法通过时间卷积网络和图卷积门控机制来逐级扩充模型的时空特征提取能力,充分提取历史交通时空流中的关联特征关系。在预测问题的求解过程中,通过层级间的图卷积网络操作提取空间特征,采用不同层级的图卷积网络构建多尺度的空间关系,建模随时间变化的空间关系。最后,通过注意力机制将逐层隐藏特征进行聚合,从全局特征的角度建模历史时空特征,从而更加精准地预测未来的交通状况。
-
公开(公告)号:CN115953900A
公开(公告)日:2023-04-11
申请号:CN202211721955.7
申请日:2022-12-30
Applicant: 湖北武荆高速公路发展有限公司 , 长沙理工大学
Abstract: 本发明涉及一种基于多维度时间和空间依赖挖掘的交通流量预测方法,在交通流量预测模型中引入时空间关系捕捉,利用基于时间卷积网络(Temporal Convolution Network,TCN)和基于自注意力的序列注意力抓取网络,构建模型的时间依赖提取子模型,优化模型对隐含在交通数据中的时间依赖关系的提取能力。空间特征构建过程利用基于静态图和生成图的图卷积神经网络(Graph Convolution Network)进行,针对道路的显性空间关系和隐性空间关系分别进行建模分析,再将其融合生成完整的空间关系表征。
-
公开(公告)号:CN114693913A
公开(公告)日:2022-07-01
申请号:CN202210268461.1
申请日:2022-03-18
Applicant: 长沙理工大学
Abstract: 本发明公开了一种图像修复区域的定位方法、设备及存储介质。方法包括获取待定位的原始图像;将原始图像转换成噪声域,得到第一图像,从第一图像提取第一特征图,第一特征图包含第一图像中的源区域和噪声修复区域之间的不一致性特征;从原始图像中提取局部二值模式特征,将局部二值模式特征与原始图像合并,得到第二图像,从第二图像提取第二特征图,第二特征图包含第二图像中的源区域和图像修复区域之间的不一致性特征;融合第一特征图和第二特征图,得到融合特征图;对融合特征图中的修复区域进行定位。本方法能同时捕获样本块图像修复和深度学习图像修复的不同修复痕迹,能够高效、准确地定位图像中修复的区域。
-
公开(公告)号:CN112188196A
公开(公告)日:2021-01-05
申请号:CN202011040467.0
申请日:2020-09-28
Applicant: 长沙理工大学
IPC: H04N19/122 , H04N19/186 , H04N19/96
Abstract: 本发明涉及一种基于纹理的通用视频编码帧内快速预测方法,包括下列步骤:1)判断当前帧中划分块是否为亮度块,若是则执行快速预测;2)对视频中每个内部画面帧(I帧)图像中帧内预测时划分的块大小进行判断,大于等于32×32的块,即为大块;3)对于大块,利用块内标准差判定其复杂度,然后根据其量化参数值、视频尺寸大小及纹理复杂度因素判定其是否跳过多类型块划分;4)对于剩余的块,利用梯度方向判定其总体纹理方向,根据纹理方向决定是否跳过垂直或者水平多类型块划分;5)对于所有大小的块,根据块内平均梯度值以及标准差的联合决策,判定其是否提前终止划分。因为提前终止或者跳过了一部分块划分过程,减少了很多冗余的递归划分,在几乎不降低视频质量的情况下,节省了大量的编码时间。
-
公开(公告)号:CN110113607A
公开(公告)日:2019-08-09
申请号:CN201910336663.3
申请日:2019-04-25
Applicant: 长沙理工大学
IPC: H04N19/132 , H04N19/177 , H04N19/19 , H04N19/42 , H04N19/597
Abstract: 本发明涉及一种基于局部与非局部约束的压缩感知视频重建方法,在压缩感知重建视频模型中引入局部与非局部约束,利用基于图像帧最小全变差(Total Variation,TV)约束和基于序列时空相似块矩阵的低秩约束,引导优化模型的解趋向三维视频序列的固有特征。优化问题求解过程中首先采用传统方法进行对视频中每帧图像压缩感知图像进行重建,得到的图像帧的一个初始估计,然后引入辅助变量并将问题分解为一个TV优化子问题和一个低秩优化子问题,交替求解,并在内循环中进一步地将TV子问题和低秩优化子问题分解为可微的和求解的部分分别求解。由于发明的方法充分考虑了图像帧的时空局部与非局部特征,因而提高了图像的重建质量。
-
公开(公告)号:CN103997645B
公开(公告)日:2017-02-15
申请号:CN201410180404.3
申请日:2014-04-29
Applicant: 长沙理工大学
IPC: H04N19/11 , H04N19/159 , H04N19/147
Abstract: 本发明涉及一种快速的高效视频编码(High Efficiency Video Coding,HEVC)帧内编码单元和模式决策方法,包括下列步骤:1)设置阈值的有效长度N;2)对于视频序列的第一帧正常编码,并将每个最大编码单元(Largest Coding Unit,LCU)最终的编码深度和离散化全变差(Discrete Total Variation,DTV)值存入缓存区中;3)统计缓存区中的DTV,根据深度范围得出阈值T1和阈值T2;4)对于余下N-1帧,根据当前LCU的DTV值和阈值,跳过概率很小的深度,在每一深度搜索时采用基于方向梯度的快速模式搜索算法;5)将第N+1帧设置为首帧,重复1)、2)、3)、4),直到编码完所有帧。该方法采用自适应的DTV阈值决策,减小宏块单元搜索的数量,采用基于方向梯度特征简化了模式搜索的过程,加快了编码速度。
-
-
-
-
-
-
-
-