-
公开(公告)号:CN103096113B
公开(公告)日:2015-01-07
申请号:CN201310051957.4
申请日:2013-02-15
Applicant: 吉林大学
IPC: H04N13/00
Abstract: 离散视点采集结合窗截取算法的立体元图像阵列生成方法属立体图像生成技术领域,本发明包括下列步骤:采集离散视点图像阵列;计算拍摄对象在每幅离散视点图像中的位置;计算截取窗在离散视点图像阵列任意两幅水平相邻离散视点图像中的水平相对位移和截取窗在离散视点图像阵列中任意两幅垂直相邻离散视点图像中的垂直相对位移;计算截取窗大小;计算截取窗右下角在离散视点图像阵列的第一行、第一列离散视点图像中的位置;对离散视点图像阵列进行截取生成子图像阵列;将子图像阵列转化成立体元图像阵列。本发明不受采集设备的限制,能生成实际景物的高分辨率立体元图像阵列,与传统的相机阵列直接采集法相比,本发明可大大降低拍摄成本和工作量。
-
公开(公告)号:CN103986925A
公开(公告)日:2014-08-13
申请号:CN201410247815.X
申请日:2014-06-05
Applicant: 吉林大学
Abstract: 基于亮度补偿的立体视频视觉舒适度评价方法属立体视频视觉舒适度评价技术领域,本发明结合立体视频帧左右视图的灰度图提取出立体视频帧的前景区域,合成视差图并提取水平视差,计算深度视差;根据主观评价结果建立视差深度—视觉舒适度模型,再结合亮度对视觉舒适度的评价模型进行优化,使模型的评分更接近人类视觉系统的评分;结合人类主观评价实验的结果,用逆向代入法求出模型的系数确定模型,最终实现基于人类视觉系统特性的对立体视频视觉舒适度的评价;本发明用亮度补偿的方法对视觉舒适度的评价模型进行了优化,建立了更符合人类主观感知结果的立体视频视觉舒适度评价模型,使模型评分更接近人类视觉系统特性的主观实验评分。
-
公开(公告)号:CN103528562A
公开(公告)日:2014-01-22
申请号:CN201310513059.6
申请日:2013-10-26
Applicant: 吉林大学
IPC: G01C3/00
Abstract: 本申请提供一种基于单摄像头检测人眼与显示终端距离的方法,该方法包括:在摄像头获取观看者图像信息后,首先经过预处理模块,将摄像头所采集到的图像信息的分辨率自动转化为拟合函数的标准分辨率;然后通过图像处理模块分析出双目瞳孔在图像坐标系中的像素距离X,并通过计算模块将其数据代入双目瞳孔像素距离X与观看者实际视距Y的拟合函数,进而计算得出观看者实际视距Y。本发明降低了现有技术中双摄像头或单摄像头不同位置上测距的系统复杂性,有效的减少了单摄像头采集模块硬件参数所带来的计算误差,并可直接配合未知参数的单摄像头采集模块,实现测距功能,具有良好的可移植性。
-
公开(公告)号:CN103096125A
公开(公告)日:2013-05-08
申请号:CN201310057254.2
申请日:2013-02-22
Applicant: 吉林大学
Abstract: 基于区域分割的立体视频视觉舒适度评价方法属立体图像评价技术领域,本发明首先自适应地分割提取出立体视频序列中的运动区域和背景部分的显著性区域,结合深度感知理论和空间合并技术,对视觉舒适度这一特征量进行建模,利用线性回归的方法,再结合人类主观评价实验结果与视差深度之间的逻辑关系,选取契合人类主观评价结果的待定系数及其特征权值,实现对立体视频舒适度自适应的评定。本发明对放映设备、实验条件进行标定,分别对显著性区域内的背景部分与运动对象,通过设定权值实现对舒适度评价结果的优化,建立了符合人类主观感知结果的立体图像质量客观评价模型,本发明对加快立体视频系统的发展,具有不可估量的重要作用。
-
公开(公告)号:CN103096113A
公开(公告)日:2013-05-08
申请号:CN201310051957.4
申请日:2013-02-15
Applicant: 吉林大学
IPC: H04N13/00
Abstract: 离散视点采集结合窗截取算法的立体元图像阵列生成方法属立体图像生成技术领域,本发明包括下列步骤:采集离散视点图像阵列;计算拍摄对象在每幅离散视点图像中的位置;计算截取窗在离散视点图像阵列任意两幅水平相邻离散视点图像中的水平相对位移和截取窗在离散视点图像阵列中任意两幅垂直相邻离散视点图像中的垂直相对位移;计算截取窗大小;计算截取窗右下角在离散视点图像阵列的第一行、第一列离散视点图像中的位置;对离散视点图像阵列进行截取生成子图像阵列;将子图像阵列转化成立体元图像阵列。本发明不受采集设备的限制,能生成实际景物的高分辨率立体元图像阵列,与传统的相机阵列直接采集法相比,本发明可大大降低拍摄成本和工作量。
-
公开(公告)号:CN102385816B
公开(公告)日:2013-04-10
申请号:CN201110372599.8
申请日:2011-11-22
Applicant: 吉林大学
Abstract: LED屏裸眼立体显示的狭缝光栅制作方法,属立体显示技术领域,本发明包括:将与狭缝光栅配合的LED屏的像素进行排列,计算得到狭缝光栅的参数和LED屏的裸眼立体显示区域,狭缝光栅制作和定位;本发明所提出的像素排列和虚拟像素显示方式,在用做裸眼立体显示时,其显示像素为普通显示的3倍,减少了水平分辨率与垂直分辨率的失调现象,而所提出的裸眼立体显示的光学参数匹配关系更加适合于LED屏,且采用的狭缝光栅的倾斜角度避免了像素判别问题,同时制作方法使成本更低、精度更高。
-
公开(公告)号:CN113658202B
公开(公告)日:2024-09-06
申请号:CN202110945182.X
申请日:2021-08-17
Applicant: 吉林大学
Abstract: 边缘模糊定位联合MRF优化的单目视频虚拟视图合成方法属自由立体显示技术领域,本发明包括:1.对视频帧进行边缘检测;2.估计视频帧的相机位姿;3.针对每幅视频帧,计算边缘像素的深度值及深度估计的可信度;4.对每幅视频帧的深度值和可信度进行视点内插值;5.给定虚拟视点的图像分辨率与相机位姿,将视频信息跨视点传播至虚拟视点;6.采用基于自适应足迹的抛雪球算法,为虚拟视图进行边缘模糊定位;7.采用MRF全局优化,将彩色图根据可信度图加权融合,得到虚拟视图;本发明结合边缘驱动算法计算效率更高和MRF模型对不确定性问题描述更有效的优点,能实现高质量、强稳健的虚拟视图绘制,为自由立体显示快速生成高品质内容。
-
公开(公告)号:CN118587490A
公开(公告)日:2024-09-03
申请号:CN202410702446.2
申请日:2024-05-31
Applicant: 吉林大学
IPC: G06V10/764 , G06V10/26 , G06V10/82 , G06N3/0455 , G06N3/082
Abstract: 一种基于高斯混合模型的肺结节分类和分割方法属计算机视觉图像处理技术领域,本发明包括下列步骤:基于高斯混合模型设计病灶特征提取模块,将肺结节的详细特征以数学模型的方式展现出来,将其参数作为图像处理过程中的特征表示,提升模型的理解能力,指导分类和分割过程;将低秩矩阵作为旁路,注入图像编码器和掩码解码器的transformer中的自注意力模块,训练模型学习肺结节的知识。本发明通过加入旁路低秩矩阵并训练内部参数,设计基于高斯混合模型的病灶特征提取模块,使模型适用于肺结节分类和分割任务,并提高肺结节分类和分割的效果,尤其对病灶初期更为明显。
-
公开(公告)号:CN118470081A
公开(公告)日:2024-08-09
申请号:CN202410589148.7
申请日:2024-05-13
Applicant: 吉林大学
IPC: G06T7/50 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/048
Abstract: 一种轻量的单目内窥镜深度估计模型的搭建方法属医学图像处理和深度学习技术领域,本发明基于轻量化的高分辨率网络Lite‑HRNet及并行视觉Mamba模块搭建一种轻量的单目内窥镜深度估计网络模型;通过并行连接的方式,通过空间注意力模块不断融合低分辨率和高分辨率分支;充分利用CNN、ShuffleNet和Mamba结构的特性,提取图像的浅层特征和更深层次的特征,降低网络的复杂度和参数量;通过空间注意力桥接模块和通道注意力桥接模块融合不同层的特征图,使得输出深度图细节更加丰富;本发明在深度估计准确性和模型尺寸两方面取得平衡,优于目前轻量的深度估计模型,能用于边缘计算设备的实时单目深度估计。
-
公开(公告)号:CN118037915A
公开(公告)日:2024-05-14
申请号:CN202311746414.4
申请日:2023-12-19
Applicant: 吉林大学
Abstract: 一种基于NERF的大视差新视角图像生成方法属计算机视觉和计算机图形学技术领域,本发明包括:对一组稀疏的RGB输入视图进行特征提取和深度预测;对获取的图像信息进行几何映射,获得空间3D点的相对应值;使用注意力模块聚合多视角投影的图像信息;将视点方向和聚合的特征向量输入MLPS中,得到采样点的RGB值c和体积密度σ,通过体积渲染获得最终目标射线的颜色,该采样点是通过基于深度信息的采样方法得到。通过本发明获得的视图,能实现更高的合成质量,使输入图像具有更大的视差范围,可捕获到更丰富的场景信息,并使新视图具有更大的视点变化。
-
-
-
-
-
-
-
-
-