基于区域分割的立体视频视觉舒适度评价方法

    公开(公告)号:CN103096125B

    公开(公告)日:2015-03-04

    申请号:CN201310057254.2

    申请日:2013-02-22

    Applicant: 吉林大学

    Abstract: 基于区域分割的立体视频视觉舒适度评价方法属立体图像评价技术领域,本发明首先自适应地分割提取出立体视频序列中的运动区域和背景部分的显著性区域,结合深度感知理论和空间合并技术,对视觉舒适度这一特征量进行建模,利用线性回归的方法,再结合人类主观评价实验结果与视差深度之间的逻辑关系,选取契合人类主观评价结果的待定系数及其特征权值,实现对立体视频舒适度自适应的评定。本发明对放映设备、实验条件进行标定,分别对显著性区域内的背景部分与运动对象,通过设定权值实现对舒适度评价结果的优化,建立了符合人类主观感知结果的立体图像质量客观评价模型,本发明对加快立体视频系统的发展,具有不可估量的重要作用。

    采用同步时分复用提高组合立体图像显示分辨率的方法

    公开(公告)号:CN102497571B

    公开(公告)日:2013-10-23

    申请号:CN201110439373.5

    申请日:2011-12-25

    Applicant: 吉林大学

    Abstract: 采用同步时分复用提高组合立体图像显示分辨率的方法属真三维立体图像显示技术领域,本发明包括:在组合立体图像的显示过程中,使透镜阵列在其所在平面内做周期性快速运动,运动轨迹为直线或曲线;生成与运动的透镜阵列对应的组合立体图像序列;透镜阵列与投影仪的同步显示;本发明能在不提高透镜阵列分辨率的情况下,实现立体图像分辨率的显著提高,克服了组合立体图像在显示过程中的硬件障碍。

    基于多特征融合匹配的目标交接方法

    公开(公告)号:CN102005040B

    公开(公告)日:2012-08-01

    申请号:CN201010282569.3

    申请日:2010-09-09

    Applicant: 吉林大学

    Abstract: 基于多特征融合匹配的目标交接方法属多摄像机视频监控技术领域,本发明首先融合目标的形状特征和颜色的统计特征,计算当前摄像机视野中的待交接目标与相邻摄像机视野中的待匹配目标间的初匹配相似度,从而进行初匹配;统计初匹配后待匹配目标的个数,如果个数小于1,则待交接目标为新目标;否则,对待交接目标与待匹配目标进行二次匹配,即根据目标的边缘特征提取颜色的空间分布特征,将目标分割为颜色块,融合颜色块的平均颜色特征和位置特征,通过二次匹配矩阵计算目标间的二次匹配相似度,由此判断两个目标是否匹配;本发明通过多特征融合匹配,可有效地解决目标特征随时间和地点的变化而改变的难题,同时可提高目标交接的准确性。

    基于视距感知的小分辨率立体视频自适应解码方法

    公开(公告)号:CN102523469A

    公开(公告)日:2012-06-27

    申请号:CN201110433093.3

    申请日:2011-12-21

    Applicant: 吉林大学

    Abstract: 本发明涉及立体视频流的解码方法,具体涉及一种基于视距感知的小分辨率立体视频自适应解码方法。该方法包括:首先利用感知技术测得观看者的视距并自动计算适宜当前视距的动态视差阈值;然后根据计算得到的视差阈值调整利用已有技术解码的视差图得到适合当前视距的新视差图,进而结合利用已有技术解码的单视点视频(第一视点视频)和新视差图绘制第二视点视频并驱动立体视频的播放。基于本发明,可以根据观看者的视距实时地计算动态视差范围,充分地利用视差与观察者视距的适应性,提高小分辨率立体视频的播放效果以及观看者观看立体视频的舒适度。

    采用同步时分复用提高组合立体图像显示分辨率的方法

    公开(公告)号:CN102497571A

    公开(公告)日:2012-06-13

    申请号:CN201110439373.5

    申请日:2011-12-25

    Applicant: 吉林大学

    Abstract: 采用同步时分复用提高组合立体图像显示分辨率的方法属真三维立体图像显示技术领域,本发明包括:在组合立体图像的显示过程中,使透镜阵列在其所在平面内做周期性快速运动,运动轨迹为直线或曲线;生成与运动的透镜阵列对应的组合立体图像序列;透镜阵列与投影仪的同步显示;本发明能在不提高透镜阵列分辨率的情况下,实现立体图像分辨率的显著提高,克服了组合立体图像在显示过程中的硬件障碍。

    稀疏镜头采集的组合立体图像系统中立体元的合成方法

    公开(公告)号:CN102447934A

    公开(公告)日:2012-05-09

    申请号:CN201110341659.X

    申请日:2011-11-02

    Applicant: 吉林大学

    Abstract: 稀疏镜头采集的组合立体图像系统中立体元的合成方法属立体图像生成技术领域,包括:设置稀疏相机矩阵;计算每幅拍摄图像与水平和垂直相邻图像间的视差图;将双目立体视觉模型扩展为多目立体视觉模型,分别根据每幅图像的水平视差图和垂直视差图计算出每幅图像中像素点所对应实际物点的空间位置坐标;将所有图像中计算得到的像素点所对应实际物点的空间位置坐标换算到同一坐标系中;虚拟一个相机阵列,将同一坐标系下每幅图像中像素点所对应的实际物点投影到每个虚拟相机中,生成子图像;对未填充点插值;生成立体元图像。本发明能实现大量虚拟视点的并行生成,更适合于立体元图像的虚拟合成,使组合立体图像系统的图像源从电脑制作走向实景拍摄。

    立体元图像多等级混合预测编码结构

    公开(公告)号:CN102006468A

    公开(公告)日:2011-04-06

    申请号:CN201010266938.X

    申请日:2010-08-24

    Applicant: 吉林大学

    Abstract: 立体元图像多等级混合预测编码结构属立体视频编码技术领域,本发明将立体元图像分为两种,包括关键图像和非关键图像;以关键图像为基准将立体元图像阵列分为二维的图像组阵列;关键图像采用图像内预测进行编码,非关键图像根据其在相应图像组内的位置选择不同的预测模式进行编码。与现有的单视点视频预测编码结构相比,本发明能在不改变每个立体元图像的空间位置的同时,使大多数的立体元图像拥有更多的参考图像用于预测编码,从而提高编码效率。

    一种基于深度学习的人脸微表情分类系统构建方法

    公开(公告)号:CN119964214A

    公开(公告)日:2025-05-09

    申请号:CN202510020028.X

    申请日:2025-01-07

    Applicant: 吉林大学

    Inventor: 王世刚 接子轩

    Abstract: 一种基于深度学习的人脸微表情分类系统构建方法属人工智能深度学习及情感计算技术领域,本发明通过设计大核解构三维网络模型,将光流特征作为输入,并结合面部区域分解策略和三维卷积技术,有效识别微表情的动态变化;采用大核卷积,通过顺序分解深度卷积序列,动态调整特征提取主干的感受野,实现广泛和动态上下文信息的提取。通过将面部表情图像划分为四个不同区域,学习局部区域与全局特征的相互作用,提升识别精度;使用基于小波的下采样模块取代传统池化层,能显著提高特征层次结构中局部与全局的上下文关系捕获能力。本发明的网络轻量、识别速度快、准确率高,可广泛应用于情感分析、心理状态评估及相关领域。

    一种优化的光线追踪立体元图像阵列获取方法

    公开(公告)号:CN114219887B

    公开(公告)日:2024-08-16

    申请号:CN202111549059.2

    申请日:2021-12-17

    Applicant: 吉林大学

    Abstract: 一种优化的光线追踪立体元图像阵列获取方法属3D图像处理技术领域,本发明具体涉及一种虚实结合的基于BVH的光线追踪立体元图像阵列的获取方法,本发明利用BVH对三维物体进行分类,进而加速立体元图像阵列的获取,通过读入由相机序列拍摄的真实物体的三维模型,经过计算机在虚拟环境下建立理想相机阵列,运用基于BVH分类算法的光线追踪算法,得到无深度翻转的立体元图像阵列,再使用加速算法高效率运行,通过约束其背景色块占比修正立体图像显示范围,使显示屏得到有效利用,经超高密度小间距LED集成成像显示平台验证,实际显示效果清晰度高,且无深度翻转。

Patent Agency Ranking