-
公开(公告)号:CN110460840B
公开(公告)日:2020-06-26
申请号:CN201910900958.9
申请日:2019-09-23
Applicant: 上海工程技术大学
Abstract: 本发明公开了一种基于三维密集网络的镜头边界检测方法,步骤为:将视频分为帧段后随机分配标签,再将其输入三维密集网络完成分类;三维密集网络包括顺序连接的三维卷积层、最大池化层、四镜头边界检测块和线性层,三维卷积层为输入层,线性层为输出层,镜头边界检测块包括首尾连接的多组重复单元,重复单元包括作为输入的瓶颈层和作为输出的经过三维卷积的密集块,上一组重复单元的输出作为下一组重复单元的输入,镜头边界检测块后均连有过渡层,过渡层包括Batch Normalization、RELU、一卷积和平均池化层。本发明提高三维卷积结合视频的时空特征,采用密集网络进行特征复用,不仅提高了检测准确度,还降低了计算复杂度。
-
公开(公告)号:CN114866782B
公开(公告)日:2024-05-31
申请号:CN202210281524.7
申请日:2022-03-21
Applicant: 上海工程技术大学
IPC: H04N19/48 , H04N19/147 , H04N19/80
Abstract: 本发明涉及一种基于深度变维码率控制的视频图像处理方法,包括:步骤S1、将原始高分辨率图像进行双三次下采样和低通滤波,得到平滑滤波图像;步骤S2、利用降维修正网络生成的修正项对平滑滤波图像进行细节修正,得到降维修正图像;步骤S3、采用深度码率控制模型对降维修正图像进行编码;步骤S4、建立并级联率失真卷积网络模型,基于先知图像率失真特性和预测失真图像线性缩放准则,对失真图像线性补偿优化,得到无损降维图像;步骤S5、对无损降维图像进行双三次插值维度还原,得到模糊深维图像;步骤S6、采用升维特征预测网络对升维细节进行预测并优化,得到还原图像。与现有技术相比,本发明具有传输效率高、线性损失小以及码率精度高的优点。
-
公开(公告)号:CN112260756A
公开(公告)日:2021-01-22
申请号:CN202011030757.7
申请日:2020-09-27
Applicant: 上海工程技术大学
IPC: H04B10/116 , H04B10/61
Abstract: 本发明涉及一种全向可见光通信装置,包括反射器(1)和反射碗(2),反射器(1)位于反射碗(2)上方且二者共中心轴;反射器(1)为实心结构,上表面为圆形平面,下表面为外凸的抛物线曲面,下表面进行镜面抛光并镀反射率大于90%的反射膜;反射碗(2)采用抛物线曲面设计且底部中心开孔,开孔的形状为圆形;反射碗(2)底部中心开孔位置设有聚焦透镜组(3),聚焦透镜组(3)下方设有探测器电路板(4),探测器电路板(4)上具有用于将光信号转换成电信号的光敏探测器,探测器电路板(4)通过导线与收发处理电路板(5)连接。本发明不再受限于现有的方向性问题,真正实现无需瞄准,直接通信。
-
公开(公告)号:CN112052351A
公开(公告)日:2020-12-08
申请号:CN202010737360.5
申请日:2020-07-28
Applicant: 上海工程技术大学
Abstract: 本发明属于视频监控的技术领域,公开了一种用于动态环境的监控系统,包括摄像头,所述摄像头用于对被监控的动态环境进行拍摄,获得对应的静态背景视频;目标检测模块,所述目标检测模块用于对拍摄的静态背景视频进行图像处理,找出感兴趣目标;编码模块,所述编码模块用于对图像处理后的感兴趣目标进行编码,并存储至数据库中;语义描述模块,所述语义描述模块用于对图像处理后的感兴趣目标进行语义描述,并存储至数据库中;目标跟踪模块,所述目标跟踪模块用于根据感兴趣目标在静态背景视频中的清晰程度,对初始进入或者即将离开动态环境的感兴趣目标进行跟踪拍摄。
-
公开(公告)号:CN111901603A
公开(公告)日:2020-11-06
申请号:CN202010737371.3
申请日:2020-07-28
Applicant: 上海工程技术大学
IPC: H04N19/157 , H04N19/167 , H04N19/17
Abstract: 本发明属于编解码的技术领域,公开了一种用于静态背景视频的编码方法,以是否包含感兴趣目标,对静态背景视频的所有帧图像进行分类,将包含感兴趣目标的图像中的感兴趣目标分割出来单独编码,而不包含感兴趣目标的图像则采用跳帧编码。还公开了一种用于静态背景视频的解码方法。本发明的方法能够对静态背景视频编码,极大的提高了静态背景视频压缩率,同时也极大的提高感兴趣目标区域图像的清晰度,从而更好的解决了静态背景视频的存储和后期分析的需要。
-
公开(公告)号:CN110062238B
公开(公告)日:2020-09-11
申请号:CN201910263314.3
申请日:2019-04-02
Applicant: 上海工程技术大学
IPC: H04N19/172 , H04N19/44 , H04N19/70
Abstract: 本发明属于编解码的技术领域,公开了一种用于四分量视频的编解码方法,包括以下步骤:步骤一、以一帧图像为单位,将一个四分量格式帧图像重组成两个三分量格式帧图像,分别为奇帧和偶帧,所述奇帧和偶帧中的Y分量分别为四分量中的两个分量,从而将四分量格式视频转换为三分量格式视频;步骤二、采用现有的编解码方法对所述三分量格式视频进行编解码,获得对应的编解码数据以及解码后的三分量格式视频;步骤三、采用所述重组的逆运算,处理所述解码后的三分量格式视频,获得对应的四分量格式视频。本发明的方法通用性强。
-
公开(公告)号:CN111901603B
公开(公告)日:2023-06-02
申请号:CN202010737371.3
申请日:2020-07-28
Applicant: 上海工程技术大学
IPC: H04N19/157 , H04N19/167 , H04N19/17
Abstract: 本发明属于编解码的技术领域,公开了一种用于静态背景视频的编码方法,以是否包含感兴趣目标,对静态背景视频的所有帧图像进行分类,将包含感兴趣目标的图像中的感兴趣目标分割出来单独编码,而不包含感兴趣目标的图像则采用跳帧编码。还公开了一种用于静态背景视频的解码方法。本发明的方法能够对静态背景视频编码,极大的提高了静态背景视频压缩率,同时也极大的提高感兴趣目标区域图像的清晰度,从而更好的解决了静态背景视频的存储和后期分析的需要。
-
公开(公告)号:CN110012294B
公开(公告)日:2021-03-23
申请号:CN201910263325.1
申请日:2019-04-02
Applicant: 上海工程技术大学
IPC: H04N19/177 , H04N19/44 , H04N19/51 , H04N19/61 , H04N19/91
Abstract: 本发明属于编解码的技术领域,公开了一种用于多分量视频的编码方法,所述分量的个数大于三个,包括以下步骤:步骤一、以GOP图像组为单位,对多分量视频的各个分量进行重组,获得单分量视频序列;步骤二、对所述单分量视频序列人为加入两个分量U、V,使其转换为现有的三分量视频格式,再按照现有的编码方法对其进行编码,获得对应的编码数据。还公开了一种用于多分量视频的解码方法,包括以下步骤:步骤ⅰ、按照现有的解码方法对所述编码数据进行解码,获得对应的三分量视频格式的解码数据,再去除人为加入的两个分量U、V,获得对应的单分量视频序列;步骤ⅱ、对所有的单分量视频序列进行再次重组,获得对应的多分量视频。本发明的方法通用性强。
-
公开(公告)号:CN110460840A
公开(公告)日:2019-11-15
申请号:CN201910900958.9
申请日:2019-09-23
Applicant: 上海工程技术大学
Abstract: 本发明公开了一种基于三维密集网络的镜头边界检测方法,步骤为:将视频分为帧段后随机分配标签,再将其输入三维密集网络完成分类;三维密集网络包括顺序连接的三维卷积层、最大池化层、四镜头边界检测块和线性层,三维卷积层为输入层,线性层为输出层,镜头边界检测块包括首尾连接的多组重复单元,重复单元包括作为输入的瓶颈层和作为输出的经过三维卷积的密集块,上一组重复单元的输出作为下一组重复单元的输出,镜头边界检测块后均连有过渡层,过渡层包括Batch Normalization、RELU、一卷积和平均池化层。本发明提高三维卷积结合视频的时空特征,采用密集网络进行特征复用,不仅提高了检测准确度,还降低了计算复杂度。
-
公开(公告)号:CN119559691A
公开(公告)日:2025-03-04
申请号:CN202411541379.7
申请日:2024-10-31
Applicant: 上海工程技术大学
IPC: G06V40/20 , G06V10/82 , G06N3/0464 , G06V10/80
Abstract: 本发明公开一种基于维度扩散感知自适应融合的课堂行为检测方法,以并行化斑块感知注意力PPA代替YOLOv8模型中Backbone主干网络的部分C2f层,使用维度感知选择性融合模块DASI构建维度感知融合扩散金字塔网络DAIDFPN代替YOLOv8模型中的Neck特征融合网络,从而获得改进YOLOv8模型,并利用改进YOLOv8模型对课堂图像进行课堂行为检测。本发明提出的基于维度扩散感知自适应融合的课堂行为检测方法相比其他方法,它不需要依赖大量的数据标注数据和计算资源,具有计算开销小、实时性强、检测精度高的特点,在智慧教室部署中的成本较低,具有良好的实际应用价值。
-
-
-
-
-
-
-
-
-