大景深可变视角三维显示模组及其增强现实眼镜

    公开(公告)号:CN111781739B

    公开(公告)日:2022-02-01

    申请号:CN202010581602.6

    申请日:2020-06-23

    Applicant: 江南大学

    Abstract: 本发明属于三维增强现实显示领域,涉及大景深可变视角三维显示模组及其增强现实眼镜。大景深可变视角三维显示模组的外壳前表面是透明的塑料材质,外壳具有三个开槽,分别为电磁振动触头伸入开槽、透镜架开槽和半透半反镜安装开槽。电磁振动触头伸入开槽和透镜架开槽的两边是弧形的,能允许电磁振动触头和透镜架在一定范围内旋转。半透半反镜安装开槽是圆形的。外壳具有密闭性,即当佩戴者佩戴好设备后,只允许外部光线从外壳的前表面通过。本发明增加成像深度,实现了水平连续观看视角,从而使佩戴者在旋转头部改变观看视角的时候,观看的虚拟内容可在一定范围水平连续视角内变化,减轻了因生理辐辏与观看内容差异导致的晕眩感。

    一种基于头部定位测姿的景点交互式真3D增强现实眼镜

    公开(公告)号:CN116009276A

    公开(公告)日:2023-04-25

    申请号:CN202310073920.5

    申请日:2023-01-17

    Applicant: 江南大学

    Abstract: 本发明公开了一种基于头部定位测姿的景点交互式真3D增强现实眼镜,属于AR眼镜领域。所述眼镜包括:眼睛外壳、透镜组、中心转动模组、步进电机、树莓派、测姿传感器、GPS模块和眼镜佩戴装置。本发明的AR眼镜具备测姿装置和头部定位功能,镜头配合头部转动而转动,更加符合人眼观察的习惯,有效解决使用者长时间佩戴会产生眩晕问题的问题;且可以根据GPS模块获取的信息调出每个区域相应的流媒体文件,且通过头部姿态测量,解决了现有的增强现实眼镜无法在不改变显示信息的前提下,使佩戴者观看到不同视角的三维物体的问题,达到了对集成成像技术可提供水平连续观看视角这一优点的利用,也大大缓解了佩戴者长期使用的不适感。

    大景深可变视角三维显示模组及其增强现实眼镜

    公开(公告)号:CN111781739A

    公开(公告)日:2020-10-16

    申请号:CN202010581602.6

    申请日:2020-06-23

    Applicant: 江南大学

    Abstract: 本发明属于三维增强现实显示领域,涉及大景深可变视角三维显示模组及其增强现实眼镜。大景深可变视角三维显示模组的外壳前表面是透明的塑料材质,外壳具有三个开槽,分别为电磁振动触头伸入开槽、透镜架开槽和半透半反镜安装开槽。电磁振动触头伸入开槽和透镜架开槽的两边是弧形的,能允许电磁振动触头和透镜架在一定范围内旋转。半透半反镜安装开槽是圆形的。外壳具有密闭性,即当佩戴者佩戴好设备后,只允许外部光线从外壳的前表面通过。本发明增加成像深度,实现了水平连续观看视角,从而使佩戴者在旋转头部改变观看视角的时候,观看的虚拟内容可在一定范围水平连续视角内变化,减轻了因生理辐辏与观看内容差异导致的晕眩感。

    一种基于深度强化学习的控制系统任务云调度方法

    公开(公告)号:CN117931443A

    公开(公告)日:2024-04-26

    申请号:CN202410099179.4

    申请日:2024-01-24

    Applicant: 江南大学

    Abstract: 本发明公开了一种基于深度强化学习的控制系统任务云调度方法,涉及任务调度优化领域,该方法包括:通过实验测试和神经网络预测控制系统中的计算任务在不同CPU内核数量下所需要的运行时间;将任务调度问题表述为二维装箱问题;对于装箱问题建立马尔可夫决策模型,根据二维装箱过程设计合理奖励函数和缩减决策过程中的动作空间;使用深度强化学习中的Double DQN方法来解决装箱问题,输出最优装箱策略。本发明解决了控制系统任务在云服务器规定工作时长和CPU核心数量的情况下的调度问题,并根据二维装箱问题本身特点,提出一种缩减动作空间的深度强化学习方法,能在保证资源利用率的同时,缩短模型的训练时长,具有普适性和实用性。

    一种基于深度强化学习的控制系统任务云调度方法

    公开(公告)号:CN117931443B

    公开(公告)日:2024-10-18

    申请号:CN202410099179.4

    申请日:2024-01-24

    Applicant: 江南大学

    Abstract: 本发明公开了一种基于深度强化学习的控制系统任务云调度方法,涉及任务调度优化领域,该方法包括:通过实验测试和神经网络预测控制系统中的计算任务在不同CPU内核数量下所需要的运行时间;将任务调度问题表述为二维装箱问题;对于装箱问题建立马尔可夫决策模型,根据二维装箱过程设计合理奖励函数和缩减决策过程中的动作空间;使用深度强化学习中的Double DQN方法来解决装箱问题,输出最优装箱策略。本发明解决了控制系统任务在云服务器规定工作时长和CPU核心数量的情况下的调度问题,并根据二维装箱问题本身特点,提出一种缩减动作空间的深度强化学习方法,能在保证资源利用率的同时,缩短模型的训练时长,具有普适性和实用性。

    基于深度学习和光场成像的显微成像系统及方法

    公开(公告)号:CN115220211A

    公开(公告)日:2022-10-21

    申请号:CN202210902191.5

    申请日:2022-07-29

    Applicant: 江南大学

    Abstract: 本发明公开了基于深度学习和光场成像的显微成像系统及方法,属于光场显微成像技术领域。所述显微成像系统包括:显微成像系统、深度学习网络模块、图像输出模块。本发明通过由微透镜阵列和相机传感器构成的光场显微系统获取二维图像阵列,经深度学习网路后从中获取多视角图像信息并进一步对图像进行超分辨率重构,最终获得强度分布均匀的高分辨率三维重构图像。相比于现有的基于卷积神经网络的超分辨率重构方法,本发明产生的图像具有更高的空间分辨率、较小的重建伪影和更大的重建吞吐量,从而有效地提升成像清晰度;且在透镜阵列系统下,本发明还具备低成本、低系统复杂度、无需扫描的超分辨率成像的优势。

    一种光场相机四维数据大景深三维显示的方法

    公开(公告)号:CN110662014A

    公开(公告)日:2020-01-07

    申请号:CN201910909861.4

    申请日:2019-09-25

    Applicant: 江南大学

    Inventor: 艾灵玉 石肖 周彪

    Abstract: 本发明公开了一种光场相机四维数据大景深三维显示的方法,属于图像的三维成像领域。本发明方法首先获取包含三维物体信息的四维数据,通过放大和旋转使子图与像素点网格对齐,得到标准六边形排列光场图像;再转变为元素图像EIA以匹配DPII显示系统,对光场图像按照三维物体的深度分割场景,对处于不同平面的三维物体通过深度调整算法进行深度调整,将调整后各物体的光场图像融合为一张并对其在DPII系统上进行三维显示。本发明方法获得具有前后物体极大视差,大景深的裸眼三维显示效果,解决了关于光场相机采集过程和显示过程中出现中景深缩小、视差不明显的问题。

    一种基于光场相机的三维定位方法

    公开(公告)号:CN116630389A

    公开(公告)日:2023-08-22

    申请号:CN202210129190.1

    申请日:2022-02-11

    Applicant: 江南大学

    Inventor: 艾灵玉 石肖 钱鑫

    Abstract: 本发明公开了一种基于光场相机的三维定位方法,属于视觉定位领域。本发明的方法由光场相机拍摄三维物体的光场图像,通过将光场图像转化为多视角子孔径图像,计算相邻视角的视差;建立从空间三维点到传感器光场坐标的映射关系模型,结合多视角视差和映射关系模型的物理意义,建立视差‑深度映射关系,由视差求解出深度,最后由视差图包含的传感器光场坐标求解出空间坐标,得到物体的三维坐标。本发明方法实现了采集全景的三维定位,解决了光场相机全景、精确三维测量的问题。

    实景全息图获取系统及方法
    10.
    发明公开

    公开(公告)号:CN116300363A

    公开(公告)日:2023-06-23

    申请号:CN202310057970.4

    申请日:2023-01-17

    Applicant: 江南大学

    Inventor: 艾灵玉 钱鑫 石肖

    Abstract: 本发明公开了实景全息图获取系统及方法,属于全息生成技术领域。本发明通过光场相机主透镜来提升集成成像系统的视场,记录宽视场的三维场景,并针对主透镜组引起的深度非均匀压缩问题,提出了一种结合相机元数据参数的深度标定及恢复方法;此外,还提出了一种反射式傅里叶叠层全息生成算法,可快速采集并生成高分辨率宽视场的全息图,最后通过波动光学数值重建模型仿真实现全息三维立体显示。本发明可实现宽视场的三维场景采集与重现,增强了重建三维场景的视差,使用户能够全视差观察到重建的场景,增加了对三维场景的深度感知,且提升了全息显示的分辨率,适用于自然光下复杂场景的全息图获取及优化。

Patent Agency Ranking