-
公开(公告)号:CN118301353A
公开(公告)日:2024-07-05
申请号:CN202410728757.6
申请日:2024-06-06
Applicant: 中国矿业大学
IPC: H04N19/154 , H04N19/159 , H04N19/63 , H04N19/91 , H04N19/94 , G06V10/46 , G06V10/28 , G06V10/30 , G06V10/44
Abstract: 一种基于小波变换的红外与微波信息视频编码融合方法,步骤包括采集同一场景下的红外视频流和微波成像设备的信息片段;对红外视频流进行逐帧提取、去噪、对比度增强的预处理操作,对微波信息片段进行去除伪影、动态范围压缩的预处理操作;对红外视频帧及微波信息片段进行特征提取;通过小波变换融合算法进行融合编码,生成融合视频帧,进行去噪及细节增强的后处理操作;采用H.265/HEVC将融合后的图像序列编码成视频文件。实现了多模态的信息融合,获得更全面和完善的场景信息;通过尺度不变特征变换算法,提高融合的准确性。通过小波变换算法,有效融合红外图像和微波信息,扩大了红外视频和微波信息视频编码融合技术的适用范围。
-
公开(公告)号:CN117692652B
公开(公告)日:2024-04-26
申请号:CN202410155470.9
申请日:2024-02-04
Applicant: 中国矿业大学 , 江苏比特达信息技术有限公司
IPC: H04N19/189 , H04N19/20 , H04N19/65 , H04N19/85 , G06T9/00 , H04N19/182 , H04N19/17 , H04N19/625 , H04N19/63 , H04N23/11 , G06T5/70 , G06T5/40 , G06N3/0464 , G06N3/08
Abstract: 一种基于深度学习的可见光与红外视频融合编码方法,步骤包括采集同一场景下的可见光视频流和红外视频流;对采集的可见光视频流和红外视频流进行预处理,包括去噪、对比度增强操作,并采用生成对抗网络对视频进行编码;采用自适应编码损伤修复算法提升编码性能;通过融合编码算法对经编码损伤修复过的可见光视频和红外视频进行融合编码,生成融合视频流。实现了对不同模态视频流选择合适的预处理操作,减少了噪声的同时增强对比度,保持了视频更多的细节;通过在EDVR模型的框架中融入自适应损伤修复算法,增进了网络修复的效果,大大提高了可见光和红外视频数融合处理的效率以及质量,扩大了可见光与红外视频编码融合技术的适用范围。
-
公开(公告)号:CN117612142A
公开(公告)日:2024-02-27
申请号:CN202311520633.0
申请日:2023-11-14
Applicant: 中国矿业大学 , 燕园安全科技(徐州)有限公司
IPC: G06V20/59 , G06V10/764 , G06V10/774 , G06V10/80 , G06V40/16 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于多任务联合模型的头部姿态与疲劳状态检测方法,包括以下步骤:在YOLOv6的基础上,设计基于聚集与分流机制的加强特征提取网络;在模型中增加融合大核注意力机制的头部姿态估计分支;对人脸数据集标注形成疲劳驾驶数据集;通过目标检测损失函数和头部姿态估计损失函数训练疲劳分神检测模型;将模型部署于车载终端设备,通过模型检测头部姿态和疲劳状态并输出信息;通过某一类别持续时间与设定阈值进行比较来判定是否处于疲劳状态或分神状态。本发明提高模型的泛化性能、鲁棒性、可靠性及检测精度、减少模型训练的时间和计算资源,提高驾驶员的安全性,减少驾驶中的疲劳分心行为,降低交通事故的发生率。
-
公开(公告)号:CN118474377B
公开(公告)日:2024-09-24
申请号:CN202410926618.4
申请日:2024-07-11
Applicant: 中国矿业大学
IPC: H04N19/172 , H04N19/52 , H04N19/42 , H04N19/43 , H04N19/44
Abstract: 本发明涉及视频处理与编码技术领域,具体公开了一种支持多种计算复杂度的深度视频编解码方法。该深度视频解码方法包括:S1、在编码器一侧以输入帧和参考帧作为输入,进行运动估计;S2、通过运动压缩模块处理来自运动估计模块的运动信息,得到解码运动信息;S3、通过给定的参考帧与解码运动信息,执行运动补偿,生成预测帧;S4、通过残差压缩模块,根据输入帧和预测帧生成残差信息;S5、将重构后的残差信息添加回预测帧中,生成重构输出帧。利用上述方法,实现使用一个学习解码器而不是多个解码器,就能同时支持多种复杂度级别的效果,并且能够在性能下降可忽略不计的情况下提高其解码效率。
-
公开(公告)号:CN118411306A
公开(公告)日:2024-07-30
申请号:CN202410888768.0
申请日:2024-07-04
Applicant: 中国矿业大学
Abstract: 本发明涉及本发明涉及图像处理领域,具体公开了一种图像实时可控去噪方法、系统及计算机可读介质。图像实时可控去噪方法包括:通过主干网络生成多个固定级别的噪声特征图;将这些噪声特征图作为输入送入噪声去相关模块,强化其噪声分布的正交性;对得到的零相关噪声特征图进行简单的线性插值实现可控的去噪效果;自动调整模块给出一组最优的控制参数以生成最终的去噪图像。利用上述方法,在噪声去相关过程中加强了噪声特征图的正交性,从而通过噪声特征图插值实现任意噪声级别控制,且不需要网络推理,实现了图像去噪过程的实时性与可控性。
-
公开(公告)号:CN118037870B
公开(公告)日:2024-06-07
申请号:CN202410412342.8
申请日:2024-04-08
Applicant: 中国矿业大学 , 永城煤电控股集团有限公司 , 江苏比特达信息技术有限公司
Abstract: 本发明属于图像处理技术领域,公开了一种兼容Zdepth的并行化深度图像压缩算法,s1采集深度图像进行预处理后准备进行s2量化处理,经过s2量化处理,图像数据被简化为较少的比特表示,随即进入s3零压缩阶段,系统识别并压缩量化后数据中的连续零值,进一步减少数据的存储需求,完成s3零值的压缩处理后,数据将进入s4预测分块压缩阶段,系统通过分析每个数据块内的像素关系,进行进一步压缩数据,s5数据输出,将所有压缩后的数据通过ZSTD算法压缩,并依序输出到文件系统,同时公开了基于该算法的图像压缩装置和终端设备。本发明通过优化数据结构和压缩流程,能够显著提高深度图像的压缩和解压速度,同时保证压缩后深度图像的质量。
-
公开(公告)号:CN117692652A
公开(公告)日:2024-03-12
申请号:CN202410155470.9
申请日:2024-02-04
Applicant: 中国矿业大学 , 江苏比特达信息技术有限公司
IPC: H04N19/189 , H04N19/20 , H04N19/65 , H04N19/85 , G06T9/00 , H04N19/182 , H04N19/17 , H04N19/625 , H04N19/63 , H04N23/11 , G06T5/70 , G06T5/40 , G06N3/0464 , G06N3/08
Abstract: 一种基于深度学习的可见光与红外视频融合编码方法,步骤包括采集同一场景下的可见光视频流和红外视频流;对采集的可见光视频流和红外视频流进行预处理,包括去噪、对比度增强操作,并采用生成对抗网络对视频进行编码;采用自适应编码损伤修复算法提升编码性能;通过融合编码算法对经编码损伤修复过的可见光视频和红外视频进行融合编码,生成融合视频流。实现了对不同模态视频流选择合适的预处理操作,减少了噪声的同时增强对比度,保持了视频更多的细节;通过在EDVR模型的框架中融入自适应损伤修复算法,增进了网络修复的效果,大大提高了可见光和红外视频数融合处理的效率以及质量,扩大了可见光与红外视频编码融合技术的适用范围。
-
公开(公告)号:CN117560494A
公开(公告)日:2024-02-13
申请号:CN202410038681.4
申请日:2024-01-11
Applicant: 中国矿业大学 , 江苏比特达信息技术有限公司
IPC: H04N19/132 , H04N19/177 , H04N19/172
Abstract: 一种用于矿下低质视频快速增强的编码方法,步骤:利用检测摄像头获取煤矿井下多种光线条件下的低照度和低清晰度视频流数据;对获取的视频流数据进行处理,截取出低照度场景视频,构建井下低质视频数据集;通过帧插值器接收两个参考帧并进行帧插值操作生成一个参考帧;确定Gop结构,利用I帧编码器和P帧编码器分别对I帧和P帧进行编码;将参考帧作为参考,通过当前P帧编码器对输入的B帧进行编码。本发明为现有的神经P帧编解码器增加B帧编码功能,大大提高了P帧编码器对低质视频的增强编码性能,且具有很强的灵活性和泛化性;实现了对Gop结构的全面分析,提高了整体编码效率;为煤矿安全管理提供科学数据支持,提高了安全管理水平。
-
公开(公告)号:CN118413675A
公开(公告)日:2024-07-30
申请号:CN202410879262.3
申请日:2024-07-02
Applicant: 中国矿业大学
Abstract: 本发明公开了一种基于上下文渐进式三平面编码图像压缩算法及终端设备,具体包括:S1、通过MPEG算法将可视相机采集的视频流进行压缩,并获取编码格式为H265的可视图像;S2、通过编码器和超编码器依次将可视图像X转换为潜在张量Y和超潜在张量Z,此外使用超解码器得到表示Y的平均值和标准差;S3、通过概率计算模块使用平均值、标准差和已编码的三平面来评估值;S4、设计一个基于上下文的速率降低模块,预测每个三平面的值并通过残差块和卷积层进行融合,最后使用激活函数;S5、设计一个基于上下文的失真降低模块,在熵解码之后进行图像重构X;S6、最后,通过超解码器将改进的潜在张量进行图像重建。
-
公开(公告)号:CN117612142B
公开(公告)日:2024-07-12
申请号:CN202311520633.0
申请日:2023-11-14
Applicant: 中国矿业大学 , 燕园安全科技(徐州)有限公司
IPC: G06V20/59 , G06V10/764 , G06V10/774 , G06V10/80 , G06V40/16 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于多任务联合模型的头部姿态与疲劳状态检测方法,包括以下步骤:在YOLOv6的基础上,设计基于聚集与分流机制的加强特征提取网络;在模型中增加融合大核注意力机制的头部姿态估计分支;对人脸数据集标注形成疲劳驾驶数据集;通过目标检测损失函数和头部姿态估计损失函数训练疲劳分神检测模型;将模型部署于车载终端设备,通过模型检测头部姿态和疲劳状态并输出信息;通过某一类别持续时间与设定阈值进行比较来判定是否处于疲劳状态或分神状态。本发明提高模型的泛化性能、鲁棒性、可靠性及检测精度、减少模型训练的时间和计算资源,提高驾驶员的安全性,减少驾驶中的疲劳分心行为,降低交通事故的发生率。
-
-
-
-
-
-
-
-
-