一种利用记忆网络和门控循环单元实现视频摘要的方法

    公开(公告)号:CN114020964B

    公开(公告)日:2024-10-22

    申请号:CN202111346288.4

    申请日:2021-11-15

    Applicant: 上海大学

    Abstract: 本发明提供一种利用记忆网络和门控循环单元实现视频摘要的方法,包括:预处理数据集,获取视频的视频帧特征;设计以所述视频帧特征为输入,以帧重要性分数为输出的整体网络模型;整体网络模型中进行模型训练;将从完成训练的整体网络模型中得到的帧重要性分数转换为关键镜头;将所述关键镜头组合为动态视频摘要,测试视频摘要结果。本发明,其整体网络模型将输入的视频进行特征处理,利用帧重要性分数获取动态视频摘要,提高了模型的整体有效性。

    一种基于分类的内容自适应下采样视频编码优化方法

    公开(公告)号:CN115052146B

    公开(公告)日:2024-09-10

    申请号:CN202210689127.3

    申请日:2022-06-16

    Applicant: 上海大学

    Inventor: 杨超 覃思倩 安平

    Abstract: 本发明提供一种基于分类的内容自适应下采样视频编码优化方法,包括:确定数据库中每个待编码视频序列的标签,标记其适用于原分辨率直接编码或下采样后编码;提取训练和测试视频序列的特征;采用支持向量机对训练视频序列按标签进行分类,获得训练模型;采用训练模型对测试视频序列进行标签预测,获得测试模型;对测试模型进行准确性与性能分析。本发明结合支持向量机与特征提取算法,实现在保证编码质量的同时,自适应地选择待编码序列的分辨率,进一步节省了码率资源,具有流程简单、算法时间复杂度低、视频分类准确性高等优点。

    一种基于深度学习的点云上采样方法、设备、介质及终端

    公开(公告)号:CN114998404B

    公开(公告)日:2024-07-05

    申请号:CN202210693473.9

    申请日:2022-06-17

    Applicant: 上海大学

    Abstract: 本发明提供一种基于深度学习的点云上采样方法,包括:计算稀疏点的法向量,并在其切平面生成栅格点;根据所述栅格点与其邻近稀疏点的相对位置信息,使用深度学习方法对所述栅格点进行线性组合,生成3D平面点;根据所述3D平面点之间的相对位置关系和所述3D平面点与所述邻近稀疏点的相对位置关系,使用深度学习模型计算各3D平面点的移动偏置,获得最终的上采样点。本发明实施例中一种基于深度学习的点云上采样方法,引入栅格点辅助进行点云上采样,利用点云间相对位置关系的同时,加深点云上采样块之间的联系,从而达到更好的点云上采样效果。

    一种光场相机阵列成像系统及方法

    公开(公告)号:CN114897956B

    公开(公告)日:2024-07-05

    申请号:CN202210473102.X

    申请日:2022-04-29

    Applicant: 上海大学

    Abstract: 本发明提供一种光场相机阵列成像系统,包括:包括光场相机阵列和相机阵列处理模块;所述光场相机阵列,包括:相机组,所述相机组包括若干个记录不同场景角度的子相机;轨道,所述轨道放置所述相机组;LED照明设备,所述LED照明设备为所述相机组拍摄时提供光照;处理器,所述处理器与相机阵列处理模块连接,处理所述相机组拍摄的照片;PCIE采集卡,所述PCIE采集卡为所述相机组和所述处理器之间的通信提供接口。本发明采集模式更多样化;采集到的光场图像视差一致性更加精确。

    一种基于Transformer的无参考全景图像质量评价方法及系统

    公开(公告)号:CN118014966A

    公开(公告)日:2024-05-10

    申请号:CN202410187751.2

    申请日:2024-02-20

    Applicant: 上海大学

    Abstract: 本发明公开了一种基于Transformer的端到端无参考全景图像质量评价方法及系统,包括:确定特征视点;对特征视点进行采样视口图像;对视口图像进行特征提取,基于Swin Transformer网络确定单个视口图像的多尺度特征;将所有视口图像的多尺度特征融合输入特征交互网络,确定需要回归质量分数的交互特征;通过提取出的交互特征回归全景图像的质量分数。本发明基于强大的特征提取能力,充分利用视口有效信息,完成建模视口提取,深入探讨人眼视觉观看过程;应用Transformer网络,在全景图像的不同部分捕捉并建模视觉信息的局部关系,使机器更全面地理解人眼在观看全景图像时的注意力分布和信息处理机制。

    基于空间角度可变形卷积网络的压缩光场质量增强方法

    公开(公告)号:CN116934647A

    公开(公告)日:2023-10-24

    申请号:CN202310989156.6

    申请日:2023-08-08

    Applicant: 上海大学

    Abstract: 本公开提供一种基于空间角度可变形卷积网络的压缩光场质量增强方法,所述方法包括:获取压缩失真光场数据集;根据压缩失真光场数据集的视点位置,确定压缩失真光场数据集的局部视点和全局视点;根据局部视点和空间角度可变形卷积网络,确定压缩失真光场数据集的局部特征;将全局视点进行特征提取处理,确定压缩失真光场数据集的全局特征;将局部特征与全局特征进行融合处理后输入预设的密集残差网络,确定质量增强的压缩光场生成图像。通过本公开,采用可变形卷积隐式聚合压缩光场空间特征、角度特征,采用密集残差网络引入全局的残差学习,实现对压缩光场的质量增强。

    光场图像空间域超分辨率方法、系统、终端及存储介质

    公开(公告)号:CN113592716B

    公开(公告)日:2023-08-01

    申请号:CN202110906481.2

    申请日:2021-08-09

    Applicant: 上海大学

    Abstract: 本发明公开了一种光场图像空间域超分辨率方法、系统、终端及存储介质,包括:将视点图像按照角度位置分为多组,对应设置多个视点图像对齐方案;将不同角度位置的视点图像,以其自身作为待超分辨率的中心视点图像,利用基于频域图像金字塔分解的视差提取方法,对其周围不同预设对齐范围内的待对齐视点图像进行视差对齐,对齐至中心视点图像位置;将待训练视点图像先剪裁后下采样再对齐,然后进行训练,得到光场图像超分辨率模型;将对齐后的待测试视点图像输入到光场图像超分辨率模型中,预测得到空间域超分辨率后的视点图像。本发明,将基于相位的视点图像视差对齐与基于深度学习的光场图像超分辨率方法相结合,得到了质量更高的超分辨率结果。

    基于图像色彩分割的发色变换方法、系统及终端

    公开(公告)号:CN110009708B

    公开(公告)日:2020-08-28

    申请号:CN201910283493.7

    申请日:2019-04-10

    Applicant: 上海大学

    Abstract: 本发明提供了一种基于图像色彩分割的发色变换方法,包括:S1,采集图像,对图像进行预处理;S2,对S1中得到的预处理后的图像进行背景滤除处理;S3,对S2中得到的图像中的人像进行人脸识别和人眼识别,进一步分割出头发模块,并对眼睛部分进行遮蔽处理;S4,提取原图像中发色像素的多个像素点,并求出多个像素点的平均值以代替发色像素,基于替代后的发色像素,对S3中得到的进行遮蔽处理后的图像进行发色变换处理;S5,对S4中得到的发色变换后的图像进行背景恢复处理。同时提供了一种基于图像色彩分割的发色变换系统、终端。本发明技术操作简单,可有效排除干扰,快速、准确地实现发色的变换。

    一种利用视频统计特征预测差错敏感度的方法

    公开(公告)号:CN107888931B

    公开(公告)日:2020-03-17

    申请号:CN201711212702.6

    申请日:2017-11-28

    Applicant: 上海大学

    Abstract: 本发明涉及一种利用视频统计特征预测差错敏感度的方法,具体步骤是:提取丢包视频特征:对测试视频随机丢包处理,获取丢失块周围块的丢失情况,计算丢失块所处区域的纹理复杂度,计算丢失块区域梯度,估计丢失块的运动矢量;同时将周围块的丢失情况、纹理复杂度、梯度以及运动矢量联合构成丢失块的统计特征;计算差错敏感度:将丢包后的视频进行差错隐藏,再以块为单位统计仍存在的错误像素,计算差错敏感度;训练模型并预测:丢失块的统计特征及其相应的差错敏感度构成训练集,使用训练集训练支持向量回归器SVR,把丢失块的统计特征输入训练好的SVR模型,输出预测的差错敏感度。本方法精确预测出丢包对视频帧不同区域影响严重程度,减少复杂度。

Patent Agency Ranking