立体元图像多等级混合预测编码结构

    公开(公告)号:CN102006468A

    公开(公告)日:2011-04-06

    申请号:CN201010266938.X

    申请日:2010-08-24

    Applicant: 吉林大学

    Abstract: 立体元图像多等级混合预测编码结构属立体视频编码技术领域,本发明将立体元图像分为两种,包括关键图像和非关键图像;以关键图像为基准将立体元图像阵列分为二维的图像组阵列;关键图像采用图像内预测进行编码,非关键图像根据其在相应图像组内的位置选择不同的预测模式进行编码。与现有的单视点视频预测编码结构相比,本发明能在不改变每个立体元图像的空间位置的同时,使大多数的立体元图像拥有更多的参考图像用于预测编码,从而提高编码效率。

    基于单目RGB相机与三维体表示的光场视频合成方法

    公开(公告)号:CN114332380B

    公开(公告)日:2024-08-09

    申请号:CN202210001079.4

    申请日:2022-01-04

    Applicant: 吉林大学

    Abstract: 基于单目RGB相机与三维体表示的光场视频合成方法属自由立体显示技术领域,本发明包括:1.利用特征提取和特征优化编码器,为当前帧RGB图像提取特征;2.利用像素对齐隐函数和高效的光线投射机制,为当前帧前景图像计算光场图像的估计值;3.利用前向和后向光流信息,为当前帧光场图像计算其估计值的时域一致性损失;4.通过对全局损失、局部损失、时域一致性损失加权求和,构造目标函数;5.通过最小化目标函数,得到当前帧光场图像的最优估计;本发明通过采用单目RGB相机与三维体表示,在保证光场图像空域和角度域一致性的基础上,能提高其时域一致性,从而提升自由立体显示内容采集的便捷性、鲁棒性,以及动态人体画面的稳定性。

    一种基于双目拼接和眼动追踪的视野渲染系统及方法

    公开(公告)号:CN116634260A

    公开(公告)日:2023-08-22

    申请号:CN202310632152.2

    申请日:2023-05-31

    Applicant: 吉林大学

    Abstract: 一种基于双目拼接和眼动追踪的视野渲染系统及方法,本发明涉及基于双目拼接和眼动追踪的视野渲染系统及方法。本发明的目的是为了解决现有车外搭载相机的拍摄视角和车内驾驶员的驾车视角无法重合,人眼视觉存在景深模糊现象,这种视觉特性在计算机渲染结果中较难体现,以及全聚焦的显示画面可能会分散驾驶员的驾车注意力的问题。系统包括:左相机、右相机、处理器、电源、眼动追踪仪和显示屏;其中显示屏垂直置于人眼的前方,人眼在显示屏上的投影位于显示屏的中心;眼动追踪仪固接于显示屏的上方;显示屏的显示方向和眼动追踪仪的采集方向都与人眼的观察方向相反;左相机和右相机并排固接于显示屏的后方区域。本发明用于图像处理技术领域。

    基于目标检测的星图压缩方法
    44.
    发明公开

    公开(公告)号:CN115022635A

    公开(公告)日:2022-09-06

    申请号:CN202210605495.5

    申请日:2022-05-31

    Applicant: 吉林大学

    Abstract: 基于目标检测的星图压缩方法,属于图像处理领域,解决了现有星图编码方法存在的目标检测精度低、图像压缩效率与图像局部细节保留难以权衡的问题。该方法包括:将星图划分为多个像素大小相同的子图像,作为一级编码单元;采用最大类间方差法对多个一级编码单元分别进行自适应阈值目标检测;同时统计检测点周围八邻域内被划分为目标区域和背景区域的像素点数量;根据自适应阈值目标检测结果进行编码单元的细化分;采用自适应量化参数的方法对细化分后的编码单元进行压缩编码。本发明通过自适应阈值目标检测,提高了检测精度;在同等压缩率下,由本发明编解码后图像局部的细节保留效果更好,峰值信噪比更高。

    基于单目RGB相机与三维体表示的光场视频合成方法

    公开(公告)号:CN114332380A

    公开(公告)日:2022-04-12

    申请号:CN202210001079.4

    申请日:2022-01-04

    Applicant: 吉林大学

    Abstract: 基于单目RGB相机与三维体表示的光场视频合成方法属自由立体显示技术领域,本发明包括:1.利用特征提取和特征优化编码器,为当前帧RGB图像提取特征;2.利用像素对齐隐函数和高效的光线投射机制,为当前帧前景图像计算光场图像的估计值;3.利用前向和后向光流信息,为当前帧光场图像计算其估计值的时域一致性损失;4.通过对全局损失、局部损失、时域一致性损失加权求和,构造目标函数;5.通过最小化目标函数,得到当前帧光场图像的最优估计;本发明通过采用单目RGB相机与三维体表示,在保证光场图像空域和角度域一致性的基础上,能提高其时域一致性,从而提升自由立体显示内容采集的便捷性、鲁棒性,以及动态人体画面的稳定性。

    一种三维模型二维视图与裸眼三维影像双屏联动显示方法

    公开(公告)号:CN112969062B

    公开(公告)日:2021-12-07

    申请号:CN202110161371.8

    申请日:2021-02-05

    Applicant: 吉林大学

    Abstract: 一种三维模型二维视图与裸眼三维影像双屏联动显示方法属自由立体显示技术领域,本发明包括:1.建立双屏联动显示系统,包括配置Optix的处理器、Leap Motion、立体显示屏、平面显示屏;2.设置参数值;3.导入三维模型和二维合成图的像素‑视点对应矩阵;4.创建虚拟相机阵;5.设置参考虚拟相机;6.联动显示三维模型的二维视图和裸眼三维影像,包括手势交互、更新相机参数、生成与显示二维视图和二维合成图、形成裸眼三维影像等步骤;本发明能让医生利用手掌的旋转和抓取实时控制三维医学模型平面视图和裸眼立体画面的观看角度和尺寸缩放,实现解剖结构多视角、多尺寸空间信息的交互观看,从而提升医疗的效率和可靠性。

    场景中真实物体与虚拟物体的几何一致性虚实融合方法

    公开(公告)号:CN113593049A

    公开(公告)日:2021-11-02

    申请号:CN202110855138.X

    申请日:2021-07-27

    Applicant: 吉林大学

    Abstract: 场景中真实物体与虚拟物体的几何一致性虚实融合方法,属于计算机增强现实领域,解决了场景中真实物体与虚拟物体的遮挡问题,同时还解决了场景中真实物体与虚拟物体的大小方向匹配问题。本发明先使用Kinect相机环拍真实场景,利用KinectFusion算法对场景进行三维重建;在重建场景中选取人体手臂部分模型进行处理,通过三维坐标到二维坐标变换的方法将人体手臂上手腕位置和宽度计算出来,并且通过坐标系旋转变换将真实物体与虚拟物体的坐标统一,最后通过模型参数的差分渲染,得到虚实融合效果图。本发明能够更加准确的确定手腕位置和宽度,实现优于现有技术的虚实融合效果,提高了场景中真实物体与虚拟物体的虚实融合效果。

    一种三维模型二维视图与裸眼三维影像双屏联动显示方法

    公开(公告)号:CN112969062A

    公开(公告)日:2021-06-15

    申请号:CN202110161371.8

    申请日:2021-02-05

    Applicant: 吉林大学

    Abstract: 一种三维模型二维视图与裸眼三维影像双屏联动显示方法属自由立体显示技术领域,本发明包括:1.建立双屏联动显示系统,包括配置Optix的处理器、Leap Motion、立体显示屏、平面显示屏;2.设置参数值;3.导入三维模型和二维合成图的像素‑视点对应矩阵;4.创建虚拟相机阵;5.设置参考虚拟相机;6.联动显示三维模型的二维视图和裸眼三维影像,包括手势交互、更新相机参数、生成与显示二维视图和二维合成图、形成裸眼三维影像等步骤;本发明能让医生利用手掌的旋转和抓取实时控制三维医学模型平面视图和裸眼立体画面的观看角度和尺寸缩放,实现解剖结构多视角、多尺寸空间信息的交互观看,从而提升医疗的效率和可靠性。

    基于模板匹配和孪生神经网络优化的异源图像匹配方法

    公开(公告)号:CN112801141A

    公开(公告)日:2021-05-14

    申请号:CN202110022206.4

    申请日:2021-01-08

    Applicant: 吉林大学

    Abstract: 基于模板匹配和孪生神经网络优化的异源图像匹配方法,属于计算机图像处理领域,解决了目前异源图像匹配存在的困难及Sobel算子进行特征提取时存在的轮廓边缘较粗、定位精度不高的问题。该方法包括:SAR图像预处理;图像半像素处理;基于Sobel算子的素描图像转换;模板匹配;孪生神经网络精匹配。本发明适用于基于模板匹配对两幅相同区域场景的不同大小的异源图像进行匹配的图像处理操作。本发明在模板匹配的过程中,将异源图像进行了基于Sobel算子的素描图像转换,增强了匹配效果,且后续应用改进的孪生神经网络进行精匹配,使得异源图像匹配效果更好,匹配精度更高。

    一种LED全视差集成成像显示方法

    公开(公告)号:CN111258084A

    公开(公告)日:2020-06-09

    申请号:CN202010057368.7

    申请日:2020-01-19

    Applicant: 吉林大学

    Abstract: 一种LED全视差集成成像显示方法属于三维图像显示领域,本发明的方法所涉及的系统包括:LED显示屏、透镜阵列、遮挡板和扩散屏,LED显示屏显示生成的立体元图像阵列,透镜阵列和遮挡板用于将所生成的立体元图像投射到扩散屏上,扩散屏用于提供连续的具有全视差的立体显示效果,其中透镜阵列紧密排列,遮挡板的孔洞呈奇偶排布,遮挡板与透镜阵列相配合,能解决相邻透镜之间光的串扰和混叠的问题,扩散屏对遮挡的光场信息进行一定程度的恢复,以达到比较清晰的视觉效果,仿真和实验结果表明,本发明提出的显示方法,优于传统的集成成像显示方法,实验验证本发明提出的方法具有可行性和有效性。

Patent Agency Ranking