一种基于生成对抗网络的发型转换方法

    公开(公告)号:CN118071578A

    公开(公告)日:2024-05-24

    申请号:CN202410107116.9

    申请日:2024-01-25

    Applicant: 上海大学

    Abstract: 本发明涉及一种基于生成对抗网络的发型转换方法,该方法针对人脸头发图像转换生成质量问题设计了一种视角图像生成方法。该方法在头发分割阶段,通过改进分割算法并内嵌能够增强视觉表示学习能力的注意力结构,对发型转换中的头发形状进行分割;在头发映射阶段,通过将头发颜色信息映射到头发映射器的中语义层,来提高与参考图像的颜色一致性。本发明方法无需昂贵算力要求,可以生成发型和发色一致度更高的图像,在视觉质量和真实感上具备最好的综合性能,这将有效促进数字互娱高质量发展。

    一种基于图像融合的肠道内窥镜图像增强方法

    公开(公告)号:CN116188340A

    公开(公告)日:2023-05-30

    申请号:CN202211649623.2

    申请日:2022-12-21

    Applicant: 上海大学

    Abstract: 本发明涉及一种基于图像融合的肠道内窥镜图像增强方法,该方法针对内窥镜图像照度不均、对比度偏低、纹理细节信息缺失设计了一种增强方法,它包括四个步骤:(1)创建数据集;(2)将图像输入编码器‑解码器多注意力U‑Net网络,进行深度网络模型训练以获取全局增强图像;(3)将图像输入分割网络HarDNet‑MSEG,进行深度网络模型训练以获取息肉分割mask图像;(4)判断是否含有息肉,若含有,进行图像融合,否则输出全局增强图像;(5)将编码器‑解码器多注意U‑Net网络获取的全局增强图像和HarDNet‑MSEG获取的mask图像融合输出最终局部增强图像。本发明提出的基于图像融合的肠道内窥镜图像增强方法相对其他图像增强算法更能引起人们对病变区域的关注,具有可应用于临床诊断的医学价值。

    一种基于神经网络的真实感三维人脸纹理重建方法

    公开(公告)号:CN115830241A

    公开(公告)日:2023-03-21

    申请号:CN202211642002.1

    申请日:2022-12-20

    Applicant: 上海大学

    Abstract: 本发明涉及一种基于神经网络的真实感三维人脸纹理重建方法。首先,对于收集的人脸图像通过人脸检测网络定位人脸区域,并通过拓展缩放操作得到256×256的人脸图像。其次,把处理过的人脸图像输入搭建好的网络模型,依次获取三维人脸几何、残缺的人脸纹理图和完整的人脸纹理。最终,可由三维人脸几何、人脸反照率图和环境光渲染得到渲染图,并计算渲染图和输入人脸图像的差异,实现自监督学习。与现有的技术相比,该方法在L1距离、图像峰值信噪比、图像结构相似性以及人脸余弦距离指标上都获得了最好结果。同时,由于在模型内部分离了图像光照,所以可以实现人脸重光照应用。

    一种基于Retinex理论的有监督内窥镜图像增强方法

    公开(公告)号:CN118096619A

    公开(公告)日:2024-05-28

    申请号:CN202410107112.0

    申请日:2024-01-25

    Applicant: 上海大学

    Abstract: 针对内窥镜图像光照不足、细节纹理不清晰等问题,本发明提出一种基于Retinex理论的有监督内窥镜图像增强方法,本发明方法在分解阶段,按照Retinex理论将待增强的内窥镜图像分解成光照图与反射图两部分,将图像解耦至两个子空间,有效降低了问题复杂度;在增强阶段,对光照图与反射图分别进行增强,并引入CLAHE先验,能够有效地对图像的光照与纹理信息同时进行增强,最终合成得到光照均匀、纹理清晰的内窥镜增强图像。与现有内窥镜图像增强方法相比,本发明生成的内窥镜增强图像视觉质量更高,这将有效提高电子内窥镜图像用于医疗诊断时的效率与诊断准确性。

    一种基于神经辐射场的立体视频视差控制与编辑方法

    公开(公告)号:CN115482323A

    公开(公告)日:2022-12-16

    申请号:CN202210953904.0

    申请日:2022-08-10

    Applicant: 上海大学

    Abstract: 本发明涉及一种基于神经辐射场的立体视频视差控制与编辑方法。首先,引入具有时域双向流的神经辐射场,生成新视角的动态视频场。其次,能够根据观看条件与视频场景特性,自适应精准计算理想视差,生成立体效果显著且视觉舒适的立体视频。最后,在基于神经辐射场的立体渲染过程中实现了对单个对象视差的重编辑。与现有技术对比,在图像重建质量指标上该方法获得了综合性能最高。同时,该框架获得了较低的视疲劳指数,和包含有正负两种视差的立体感。实验采集了10位非专业观众和10位专业影视工作者对该方法的结果的反馈,分别从立体感、舒适度和局部视差编辑效果三个角度,证明了我们的框架在3D电影制作中优化视觉体验和艺术性表达的价值。

    基于无监督学习的内窥镜图像增强方法

    公开(公告)号:CN113808057A

    公开(公告)日:2021-12-17

    申请号:CN202110885619.5

    申请日:2021-08-03

    Applicant: 上海大学

    Abstract: 本发明涉及一种基于无监督学习的内窥镜图像增强方法,包括四个步骤:(1)对原始内窥镜图像数据集进行预处理,利用三种图像增强技术处理原始图像得到三张派生图;(2)将原始图像和其对应的派生图转换到HSI颜色空间,保持H通道图像不变,将派生图的I通道图像输入无监督学习网络,进行深度网络模型训练;(3)根据网络训练后得到的训练参数,得到I通道图像增强结果;(4)对原始图像的S通道图像进行自适应非线性拉伸处理,并将HSI颜色空间转换回RGB颜色空间输出最终增强图像。本发明的无监督学习网络不需要ground truth作为参考图像,通过non‑reference损失函数实现网络的训练。该方法较现有方法在对比度、清晰度和细节信息方面都有显著的提高,具有很高的临床应用价值。

    一种基于单张图像的细粒度3D人脸重建方法

    公开(公告)号:CN115937429A

    公开(公告)日:2023-04-07

    申请号:CN202211641983.8

    申请日:2022-12-20

    Applicant: 上海大学

    Abstract: 本发明涉及一种基于单张图像的细粒度3D人脸重建方法,对原始的人脸图像数据集进行预处理,裁剪人脸部分区域,提取人脸的mask图并标记landmarks;然后在粗糙的3D人脸重建阶段,将预处理后的人脸图像输入到人脸回归模型中,进行网络模型训练;然后根据训练后的人脸回归模型参数,输出人脸系数向量,通过渲染生成平滑二维人脸图像;再在细粒度的3D人脸重建阶段,将反照率图输入到反照率模型中,进行反照率网络模型训练。根据训练后得到的反照率模型参数输出反照率图,根据训练后得到的深度移位模型参数,输出深度移位图。本发明方法能从单张图像中重建出细粒度的3D人脸几何和纹理信息,还对自然界中不同条件下人脸图像具有鲁棒性,应用于虚拟现实和娱乐影视。

Patent Agency Ranking