-
公开(公告)号:CN119291908A
公开(公告)日:2025-01-10
申请号:CN202411441012.8
申请日:2024-10-16
Applicant: 南通大学
Abstract: 本发明公开了一种无透镜显微成像系统单帧自聚焦方法,首先利用单一波长的光源照射样品,采集该波长下的光强分布,然后利用角谱传播公式对采集到的光强图进行反传播,在预估离焦距离范围内生成不同离焦面的光场分布,接着将不同离焦面的光场复振幅模值与采集到的光强分布的开根号进行相减再进行平方,然后将平方所得的各矩阵中所有像素值进行求和,最后每个离焦面上对应一个求和值,所有离焦面上对应的值共同形成一维矩阵。对该一维矩阵进行二阶求导,求导后的曲线分布进行取模值,最终获得的曲线分布中最大值所对应的离焦距离就是最终的结果。本发明实现了在单帧情况下快速准确地确定无透镜显微成像系统的聚焦面。
-
公开(公告)号:CN119125058A
公开(公告)日:2024-12-13
申请号:CN202411208617.2
申请日:2024-08-30
Applicant: 南通大学
IPC: G01N21/3577 , G01N21/01 , G01N13/00 , G01N13/02
Abstract: 本发明公开了一种基于红外光反射的表面能测试装置及方法,属于光学传感器技术领域。解决了现有表面能测试仪测量重复性差、响应速度慢、设备操作复杂及体积较大的技术问题。其技术方案为:该表面能测试装置包括外壳、红外光源、光电探头、计算机系统、反射层、疏水面、微量注样器、出水口、检测口;该表面能测试方法包括光路调整、装置安装、标准测试溶液注入及数据采集。本发明的有益效果为:通过红外光反射的强度变化,计算待测材料的表面能,从而提供了一种简便、快速、准确的表面能测试手段。
-
公开(公告)号:CN116723305B
公开(公告)日:2024-05-03
申请号:CN202310445621.X
申请日:2023-04-24
Applicant: 南通大学
IPC: H04N13/161 , G06N3/0464 , G06N3/0475 , G06N3/094
Abstract: 本发明提供了一种基于生成式对抗网络的虚拟视点质量增强方法,属于三维视频的虚拟视点合成技术领域。解决了三维视频编解码、视点合成造成的虚拟视点失真的技术问题。其技术方案为:首先分析网络和视频特征与虚拟视点质量的关联性;然后,设计虚拟视点质量增强流程框架;最后,针对流程框架中的质量增强模型部分,构建基于生成式对抗网络的虚拟视点质量增强模型。本发明的有益效果为:通过设计面向虚拟视点的质量增强网络模型,提高合成后虚拟视点的质量,获得较好的主观视觉质量。
-
公开(公告)号:CN117784386A
公开(公告)日:2024-03-29
申请号:CN202311727702.5
申请日:2023-12-14
Applicant: 南通大学
Abstract: 本发明提供了一种基于双波长的无透镜自聚焦方法。在无透镜成像系统中无需利用图像的清晰度判别因子及数据一致性,就可实现无透镜的自聚焦。步骤一:不同波长的光源照射相同样品,获得不同波长下相同离焦距离下的不同光强分布;步骤二:利用角谱传播公式对不同的光强进行反传播生成不同离焦面的光场分布;步骤三:不同波长下反传播的光场模值分布进行差分,差分后的分布进行平方求和;步骤四:不同离焦距离下的差分平方求和再进行两次求导,最终获得的曲线分布中最大/最小值所对应的离焦距离就是最终的结果。本发明可以降低传统无透镜显微成像重聚焦中对清晰度判别因子的依赖,有效提高重聚焦的精度。
-
公开(公告)号:CN117376583A
公开(公告)日:2024-01-09
申请号:CN202311201900.8
申请日:2023-09-18
Applicant: 南通大学
IPC: H04N19/587 , H04N19/59 , H04N19/85 , G06N3/0442 , G06N3/08
Abstract: 本发明公开了一种面向高帧率视频的可回溯帧率转换模型构建方法,属于视频帧率转换技术领域。解决了现有帧率转换技术将帧率上、下变换割裂处理所引发的难以对视频源进行真实回溯的技术问题。其技术方案为:包括以下步骤:S1、对高帧率视频与低帧率视频之间的帧率转换关系进行建模;S2、从包含视频信息特征的两个基本维度空间维度和时间维度提取时空特征,并进行多元时空特征的融合;S3、从时间以及空间两个层面设计目标损失函数;S4、构建面向高帧率视频的可回溯帧率转换模型。本发明的有益效果为:本发明可在受限带宽下,实现以多元时空特征为指导的高帧率视频的帧率转换,进而实现高帧率视频的可回溯压缩与高质量重建。
-
公开(公告)号:CN116626892A
公开(公告)日:2023-08-22
申请号:CN202310620249.1
申请日:2023-05-30
Applicant: 南通大学
Abstract: 本发明提供了一种单奇点涡旋相位拓扑荷及奇点位置的确定方法。步骤一:在待测光场的后端增加一个可变大小的非圆对称光阑和一个4f系统;步骤二:沿光轴移动相机采集两幅光强图,并计算光强的轴向微分;步骤三:基于相位相关性遍历法确定奇点位置;步骤四:迭代计算出涡旋相位的拓扑荷。本发明可以降低传统确定含奇点涡旋相位拓扑荷及奇点位置系统的复杂度,减少相位误差的引入和降低系统成本。其次,本发明只需要采集近场的两张光强图就能确定单奇点涡旋相位拓扑荷及奇点位置。
-
公开(公告)号:CN117196947B
公开(公告)日:2024-03-22
申请号:CN202311149651.2
申请日:2023-09-06
Applicant: 南通大学
IPC: G06T3/4053 , G06T9/00
Abstract: 本发明公开了一种面向高分辨率图像的高效压缩重建模型构建方法,属于高分辨率图像压缩重建技术领域。解决了原始高分辨率图像在压缩重建过程中因信息缺失所引发的图像重建质量下降的技术问题。其技术方案为:包括以下步骤:S1、对低分辨率图像与高分辨率图像之间的双向映射关系进行建模;S2、对反应图像质量的两个基本维度,空间分辨率和采样精度,进行通道信息交互;S3、从像素以及图像两个层面设计目标损失函数;S4、构建面向高分辨率图像的高效压缩重建模型。本发明的有益效果为:本发明在有限码率下,实现高分辨率图像的高效压缩与重建,在客观性能指标与主观视觉质量上均有大幅度提升。
-
公开(公告)号:CN116723305A
公开(公告)日:2023-09-08
申请号:CN202310445621.X
申请日:2023-04-24
Applicant: 南通大学
IPC: H04N13/161 , G06N3/0464 , G06N3/0475 , G06N3/094
Abstract: 本发明提供了一种基于生成式对抗网络的虚拟视点质量增强方法,属于三维视频的虚拟视点合成技术领域。解决了三维视频编解码、视点合成造成的虚拟视点失真的技术问题。其技术方案为:首先分析网络和视频特征与虚拟视点质量的关联性;然后,设计虚拟视点质量增强流程框架;最后,针对流程框架中的质量增强模型部分,构建基于生成式对抗网络的虚拟视点质量增强模型。本发明的有益效果为:通过设计面向虚拟视点的质量增强网络模型,提高合成后虚拟视点的质量,获得较好的主观视觉质量。
-
公开(公告)号:CN118869997A
公开(公告)日:2024-10-29
申请号:CN202410833512.X
申请日:2024-06-26
Applicant: 南通大学
IPC: H04N19/146 , H04N19/132 , H04N19/42 , G06N3/045
Abstract: 本发明公开了一种面向超高清视频的压缩与重建联合优化方法,属于超高清视频压缩与重建技术领域。解决了超高清视频压缩与重建过程分离所导致的解码端因无法获取超高清视频的有效信息而引发的盲目重建的技术问题。其技术方案为:包括以下步骤:S1、建立以数学建模为基础的超高清视频压缩与重建双向映射关系;S2、设计基于Transformer的超高清视频时空特征图信息增强交互机制;S3、构建基于时空特征图信息增强交互机制的超高清视频压缩与重建一体化框架。本发明的有益效果为:本发明面向超高清视频,突破了原有视频编解码框架,从架构设计上实现了超高清视频压缩与重建的联合优化。
-
公开(公告)号:CN118646876A
公开(公告)日:2024-09-13
申请号:CN202410677293.0
申请日:2024-05-29
Applicant: 南通大学
IPC: H04N19/14 , H04N19/597 , H04N19/11 , H04N19/593 , H04N19/147 , H04N19/136 , H04N13/161 , G06T9/00 , G06V10/44 , G06V10/80 , G06V20/40 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于复杂度分级标注的深度图高效编码方法,属于三维视频中的深度图编码技术领域。解决了三维视频中深度图帧内编码复杂度高的技术问题。其技术方案为:包括以下步骤:S1、基于三维视频的纹理和深度特征对深度图的编码单元进行复杂度分级标注,建立数据集;S2、构建深度图复杂度分级划分网络,利用建立的数据集对网络进行训练,在无需预编码信息的前提下,实现深度图编码单元的复杂度分级;S3、制定基于深度图复杂度分级划分网络的深度图帧内高效编码方法流程图。本发明的有益效果为:在同等深度图重建质量下降低了深度图帧内编码复杂度,本发明利用已有编码信息完成分级标注,可批量标注,具有在实际工程应用中推广的潜质。
-
-
-
-
-
-
-
-
-