-
公开(公告)号:CN108956571B
公开(公告)日:2023-12-15
申请号:CN201810843800.8
申请日:2018-07-27
Applicant: 南京理工大学
IPC: G01N21/64
Abstract: 本发明公开了一种基于泄露辐射成像在ccd靶面与安装定位面夹角误差的校准方法及装置,包括:照明光源,待测荧光物质,含金属层芯片基底,折射率匹配油,显微物镜,反射镜,偏振元件组,滤光片,聚束透镜,水平滑轨,成像透镜,ccd图像传感器。荧光样品在被照明光源辐照后,产生荧光表面等离激元波并泄露辐射通过含金属层芯片基底,在被显微物镜收集信号后实现荧光成像。期间,照明光源发出的激发光由偏振元件组和滤光片过滤。通过移动成像透镜的位置,提出泄露辐射霍夫变换算法对ccd图像传感器靶面进行检测,完成常规手段不易发现的ccd靶面与安装定位面夹角误差的精确校准。本发明结构简单,适用性强。
-
公开(公告)号:CN113901963B
公开(公告)日:2022-04-12
申请号:CN202111472000.8
申请日:2021-12-06
Applicant: 南京理工大学
IPC: G06V40/16 , G06V10/145 , G06V20/62 , G06V10/44 , G06V10/764 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明涉及一种具有多场景适应性的透过散射介质模块化成像方法,包括构建散射介质成像卷积神经网络;改进基础结构;采用即插即用模块与基础结构结合组成新的网络结构;采集数据对卷积神经网络进行训练优化;利用优化后的卷积神经网络进行成像。本发明通过在UNet神经网络结构的基础上增加语义嵌入分支模块SEB,将更多的语义信息引入低级特征,更好地实现低级特征与高级特征之间的融合;结合感受野模块,扩大卷积神经网络的感受野,提升特征层的全局性,优化了成像质量;将特征融合模块、密集连接模块和感受野模块与基础结构结合作为即插即用的系列进行应用,提高了神经网络结构的灵活性。
-
公开(公告)号:CN113901963A
公开(公告)日:2022-01-07
申请号:CN202111472000.8
申请日:2021-12-06
Applicant: 南京理工大学
Abstract: 本发明涉及一种具有多场景适应性的透过散射介质模块化成像方法,包括构建散射介质成像卷积神经网络;改进基础结构;采用即插即用模块与基础结构结合组成新的网络结构;采集数据对卷积神经网络进行训练优化;利用优化后的卷积神经网络进行成像。本发明通过在UNet神经网络结构的基础上增加语义嵌入分支模块SEB,将更多的语义信息引入低级特征,更好地实现低级特征与高级特征之间的融合;结合感受野模块,扩大卷积神经网络的感受野,提升特征层的全局性,优化了成像质量;将特征融合模块、密集连接模块和感受野模块与基础结构结合作为即插即用的系列进行应用,提高了神经网络结构的灵活性。
-
公开(公告)号:CN111739116A
公开(公告)日:2020-10-02
申请号:CN202010684446.6
申请日:2020-07-16
Applicant: 南京理工大学
Abstract: 本发明公开基于深度神经网络透过散射介质目标定位和重建方法,其基于DINet,能用于同时预测深度信息和从单个散斑图重建目标图像;利用系统配置采集实验的图像数据和物体与散射介质间的距离;将不同位置产生的散斑模式统计模型系统配置用于采集实验的图像数据和物体与散射介质之间的距离;散斑图经过双通道网络,经定位通道网络产生深度预测值和成像通道网络进行图像复原重建。本方法能够有效地解决多任务的挑战,在复杂散射情况能够获取多个物理信息。利用多任务总损失函数,对网络的学习和训练具有更强约束力,使得多任务协同训练在定位任务中具更佳性能,提高定位精度和成像质量。
-
公开(公告)号:CN111739116B
公开(公告)日:2021-01-19
申请号:CN202010684446.6
申请日:2020-07-16
Applicant: 南京理工大学
Abstract: 本发明公开基于深度神经网络透过散射介质目标定位和重建方法,其基于DINet,能用于同时预测深度信息和从单个散斑图重建目标图像;利用系统配置采集实验的图像数据和物体与散射介质间的距离;将不同位置产生的散斑模式统计模型系统配置用于采集实验的图像数据和物体与散射介质之间的距离;散斑图经过双通道网络,经定位通道网络产生深度预测值和成像通道网络进行图像复原重建。本方法能够有效地解决多任务的挑战,在复杂散射情况能够获取多个物理信息。利用多任务总损失函数,对网络的学习和训练具有更强约束力,使得多任务协同训练在定位任务中具更佳性能,提高定位精度和成像质量。
-
公开(公告)号:CN111563562B
公开(公告)日:2021-01-19
申请号:CN202010684668.8
申请日:2020-07-16
Applicant: 南京理工大学
Abstract: 本发明涉及基于卷积神经网络的单帧散射图像的彩色目标重建方法,属于机器学习与图像重建技术领域,包括:步骤1、得到散斑数据集;步骤2、构建基于卷积神经网络的单帧散射图像的彩色目标重建模型CASNet;步骤3、将ALOI数据集中对应的彩色目标数据集与散斑数据集输入单帧散射图像的彩色目标重建模型进行训练,得到训练好的彩色目标重建模型;步骤4、将采集到的单帧彩色目标散斑图像输入训练好的彩色目标重建模型得到恢复的彩色目标。本发明解决了无法实现单帧彩色宽谱目标成像的问题,填充了基于深度学习的彩色目标重建网络的空白,首次提出基于卷积神经网络的单帧散射图像的彩色目标重建模型,恢复隐藏在散射介质后彩色目标。
-
公开(公告)号:CN111739117A
公开(公告)日:2020-10-02
申请号:CN202010696635.5
申请日:2020-07-20
Applicant: 南京理工大学
Abstract: 本发明公开了一种基于卷积神经网络PDSNet来实现对散射介质后的物体进行成像的方法,该方法将传统散斑相关成像算法原理结合起来,指导了网络的设计和优化,以数据驱动的方式消除了光学记忆效应OME对成像视场角FOV的限制。卷积神经网络PDSNet是一种适用于随机尺度和复杂目标的神经网络结构。实验测试了卷积神经网络PDSNet的隐藏对象恢复能力,在平均PSNR保持24dB以上的前提下,实现至少40倍的光学记忆效应范围扩展。同时,在未经训练的尺度下,恢复图像的平均PSNR在22dB以上,成功地重建了人脸等复杂目标。文中给出的实验结果验证了该方法的准确性和有效性。
-
公开(公告)号:CN111563562A
公开(公告)日:2020-08-21
申请号:CN202010684668.8
申请日:2020-07-16
Applicant: 南京理工大学
Abstract: 本发明涉及基于卷积神经网络的单帧散射图像的彩色目标重建方法,属于机器学习与图像重建技术领域,包括:步骤1、得到散斑数据集;步骤2、构建基于卷积神经网络的单帧散射图像的彩色目标重建模型CASNet;步骤3、将ALOI数据集中对应的彩色目标数据集与散斑数据集输入单帧散射图像的彩色目标重建模型进行训练,得到训练好的彩色目标重建模型;步骤4、将采集到的单帧彩色目标散斑图像输入训练好的彩色目标重建模型得到恢复的彩色目标。本发明解决了无法实现单帧彩色宽谱目标成像的问题,填充了基于深度学习的彩色目标重建网络的空白,首次提出基于卷积神经网络的单帧散射图像的彩色目标重建模型,恢复隐藏在散射介质后彩色目标。
-
公开(公告)号:CN108956571A
公开(公告)日:2018-12-07
申请号:CN201810843800.8
申请日:2018-07-27
Applicant: 南京理工大学
IPC: G01N21/64
CPC classification number: G01N21/6402
Abstract: 本发明公开了一种基于泄露辐射成像在ccd靶面与安装定位面夹角误差的校准方法及装置,包括:照明光源,待测荧光物质,含金属层芯片基底,折射率匹配油,显微物镜,反射镜,偏振元件组,滤光片,聚束透镜,水平滑轨,成像透镜,ccd图像传感器。荧光样品在被照明光源辐照后,产生荧光表面等离激元波并泄露辐射通过含金属层芯片基底,在被显微物镜收集信号后实现荧光成像。期间,照明光源发出的激发光由偏振元件组和滤光片过滤。通过移动成像透镜的位置,提出泄露辐射霍夫变换算法对ccd图像传感器靶面进行检测,完成常规手段不易发现的ccd靶面与安装定位面夹角误差的精确校准。本发明结构简单,适用性强。
-
公开(公告)号:CN208833665U
公开(公告)日:2019-05-07
申请号:CN201821204443.2
申请日:2018-07-27
Applicant: 南京理工大学
IPC: G01N21/64
Abstract: 本实用新型公开了一种基于泄露辐射成像的CCD靶面安装校准装置,包括:照明光源,待测荧光物质,含金属层芯片基底,折射率匹配油,显微物镜,反射镜,偏振元件组,滤光片,聚束透镜,水平滑轨,成像透镜,CCD图像传感器。荧光样品在被照明光源辐照后,产生荧光表面等离激元波并泄露辐射通过含金属层芯片基底,在被显微物镜收集信号后实现荧光成像。期间,照明光源发出的激发光由偏振元件组和滤光片过滤。通过移动成像透镜的位置,提出泄露辐射霍夫变换算法对CCD图像传感器靶面进行检测,完成常规手段不易发现的CCD靶面与安装定位面夹角误差的精确校准。本实用新型结构简单,适用性强。(ESM)同样的发明创造已同日申请发明专利
-
-
-
-
-
-
-
-
-