-
公开(公告)号:CN117058034A
公开(公告)日:2023-11-14
申请号:CN202311039192.2
申请日:2023-08-17
Applicant: 厦门大学
IPC: G06T5/00 , G06N3/0464 , G06N3/045 , G06N3/084
Abstract: 基于阴影复杂性感知神经网络的图像阴影去除方法,涉及计算机底层视觉。使用颜色风格多样性增强方法对训练集样本颜色风格变换后,送入灰度结构信息恢复分支,对图像的灰度结构信息进行恢复;结果与输入图像灰度图差异性判断阴影复杂性;颜色变换后的样本及灰度结构信息恢复分支的输出结果送入颜色信息恢复分支,恢复图像颜色信息;阴影复杂性高的图像在神经网络中经过更多参数处理;计算颜色信息恢复分支输出结果与无阴影图像之间的L1损失、感知损失和多出口蒸馏损失;将各个损失按不同比例加和,作为整个网络的损失反向传播,训练神经网络。可广泛用于图像阴影去除问题,提高训练模型泛化性,通过动态网络的思想降低模型的计算量。
-
公开(公告)号:CN118710498A
公开(公告)日:2024-09-27
申请号:CN202410796173.2
申请日:2024-06-19
Applicant: 厦门大学
IPC: G06T3/4053 , G06T3/4046 , G06N3/045 , G06N3/0464 , G06N3/0499 , G06N3/08
Abstract: 本发明公开一种将现有超分辨率方法重建为任意尺度、任意资源的方法以及电子设备和存储介质,实现将现有任意尺度的超分辨率方法重建为能完成任意尺度、自主选择任意资源消耗的模式,解决传统方法中资源浪费与特征无差别处理的问题。该方法的具体步骤如下:步骤1、将低分辨率图片通过单层卷积,进行浅层特征提取;步骤2、将提取的浅层特征送入任意资源消耗模块中,进行深层特征提取;再将深层特征与浅层特征通过残差连接进行相加,得到低分辨率图片的图像特征;步骤3、将低分辨率图片的图像特征送入任意尺度增强模块,进行低分辨率图片的高分辨率重建,得到高分辨率图片。
-
公开(公告)号:CN118691473A
公开(公告)日:2024-09-24
申请号:CN202410791699.1
申请日:2024-06-19
Applicant: 厦门大学
IPC: G06T3/4053 , G06T3/4007 , G06T5/70 , G06T11/00 , G06T5/20
Abstract: 本发明公开一种无重复高分辨率图片生成方法,使用预训练的文生图稳定扩散模型,根据指定的文本提示词生成目标分辨率的图片,解决DemoFusion会生成重复的小物体和膨胀采样信息不平滑的问题,最终生成无重复的高分辨率图片。图片生成方法包括:1、从高斯噪声中随机采样一个与稳定扩散模型的训练分辨率等大的噪声并进行去噪,保留跨模态注意力产生的跨注意力图;2、将训练分辨率对应的噪声插值到目标分辨率对应的噪声,每次放大1倍;3、对2的结果添加高斯噪声,并保存中间过程产生的高斯噪声;4、一共进行T次去噪;5、如果当前分辨率满足目标分辨率,则使用解码器解码噪声,得到高分辨率图片,否则返回2。
-
公开(公告)号:CN115049055B
公开(公告)日:2024-06-04
申请号:CN202210761410.2
申请日:2022-06-29
Applicant: 厦门大学
IPC: G06N3/08 , G06N3/0464
Abstract: 基于动态双可训练界限的超分神经网络的量化方法,涉及人工神经网络的压缩与加速。1)统计超分神经网络每一层激活值的最大值分布和最小值分布;2)选择最大值分布方差和最小值分布方差之和最大的P%层,对其激活值应用具有可训练上界和下界的、具有动态门控制器的量化器,其他层的激活值应用有可训练上界和下界的量化器;3)对网络权重应用非对称的上界和下界的量化器;4)使用量化器量化神经网络,初始化动态门控制器的权重,使用L1损失、结构转移损失训练量化网络,直至达到预定的训练轮数;5)训练结束保留量化网络权重,即得量化后的量化网络。
-
公开(公告)号:CN117114062A
公开(公告)日:2023-11-24
申请号:CN202311121661.5
申请日:2023-09-01
Applicant: 厦门大学
IPC: G06N3/0495 , G06N3/08
Abstract: 一种用于任意位宽网络量化的新型多分支拓扑方法,涉及量化的人工神经网络的训练。现有的任意位宽量化方法由于权重和激活频繁的位宽切换而造成量化误差的显著积累,导致性能有限。为了解决这个问题,将网络主体复制成多个独立的分支,并将每个分支的权重量化为固定的2比特,而输入激活保持预定位宽。这样在保持计算成本不变的同时,避免权重位宽的切换,从而大大减少权重的量化误差。还引入一个摊销分支选择策略,将激活位宽切换引起的量化误差在各分支之间进行分配,以提高性能。最后,设计一种原地蒸馏策略,便于在各分支之间进行指导,以进一步提高性能。
-
公开(公告)号:CN110609914B
公开(公告)日:2021-08-17
申请号:CN201910722255.1
申请日:2019-08-06
Applicant: 厦门大学
IPC: G06F16/532
Abstract: 一种基于快速类别更新的在线哈希学习图像检索方法,涉及图像检索。针对传统的要求训练集一次性获得的哈希技术存在训练效率低下、存储空间消耗大的缺点,考虑在线学习的方案代替线下参数学习,构建基于类别相似性保留的汉明空间学习方法,提供一种基于图像数据流的哈希图像检索学习方案。包括以下步骤:1)不考虑用整体的训练集训练哈希模型,每次模型迭代中,仅使用一小块数据流;2)构建基于内积的相似性保留损失函数;3)使用基于类别的迭代更新;4)使用半量化方式的优化方案。
-
公开(公告)号:CN110609914A
公开(公告)日:2019-12-24
申请号:CN201910722255.1
申请日:2019-08-06
Applicant: 厦门大学
IPC: G06F16/532
Abstract: 一种基于快速类别更新的在线哈希学习图像检索方法,涉及图像检索。针对传统的要求训练集一次性获得的哈希技术存在训练效率低下、存储空间消耗大的缺点,考虑在线学习的方案代替线下参数学习,构建基于类别相似性保留的汉明空间学习方法,提供一种基于图像数据流的哈希图像检索学习方案。包括以下步骤:1)不考虑用整体的训练集训练哈希模型,每次模型迭代中,仅使用一小块数据流;2)构建基于内积的相似性保留损失函数;3)使用基于类别的迭代更新;4)使用半量化方式的优化方案。
-
公开(公告)号:CN119516038A
公开(公告)日:2025-02-25
申请号:CN202411392299.X
申请日:2024-10-08
Applicant: 厦门大学
IPC: G06T11/60 , G06T5/60 , G06T5/70 , G06N3/0455
Abstract: 本发明提供一种基于文本指导的图像编辑方法、装置、设备和介质,将输入图片、源提示词和目标提示词输入到模型;输入图片首先经过inversion过程被加噪为噪声图片,然后分别进入重建分支和编辑分支,所述重建分支的重建过程的交叉注意力图会注入到编辑分支中以保持图片的结构与内容;在inversion过程采用对比注意力聚焦策略,对于不同程度的注意力泄漏情况适应性地将注意力精准的引导至编辑区域;随后在编辑分支中使用掩膜引导的混合采样技术,为编辑区域和非编辑区域提供不同的条件指导,以保证图像中变化和保留的平衡整合在编辑过程中仅对需要编辑的区域进行修改,阻止对非编辑区域产生不必要的编辑,防止发生过度编辑的现象。
-
公开(公告)号:CN118536595A
公开(公告)日:2024-08-23
申请号:CN202410554989.4
申请日:2024-05-07
Applicant: 厦门大学
Abstract: 本发明公开一种利用视觉令牌提前撤出来加速多模态大语言模型推理的方法,包括a.通过在目标数据集的子集上进行策略搜索以确定提前撤出视觉令牌的撤出层K;b.根据确定的撤出层K,循环进行——在多模态大语言模型的第1层到第K‑1层进行正常的前向推理;在第K层去除所有视觉令牌;在多模态大语言模型的第K层到第N层进行无视觉令牌参与的前向推理;计算多模态大语言模型分类头的预测分布,根据当前的预测分布确定下一个令牌,然后将该令牌拼接到上一次预测的输入令牌之后:返回第一步,直到多模态大语言模型预测产生停止符。本发明能够避免重要性评价指标的设计,灵活应对、回答不同的问题,并实现与KV缓存技术的兼容。
-
公开(公告)号:CN114937186B
公开(公告)日:2024-06-07
申请号:CN202210673423.4
申请日:2022-06-14
Applicant: 厦门大学
IPC: G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/0495 , G06N3/084
Abstract: 基于异质生成数据的神经网络无数据量化方法,涉及人工神经网络的压缩与加速。包括以下步骤:1)使用标准高斯分布随机初始化假图片。2)优化初始化假图片直到迭代次数到达限制,使用局部物体加强,边界距离限制,软感知损失,BN损失对假图片进行更新;3)先量化神经网络,再利用优化好的假图片,使用蒸馏损失、交叉熵损失训练量化网络,直至到达预定的训练轮数;4)训练结束保留量化网络权重,即得量化后的量化网络。不需要真实数据,可直接从头训练得到量化网络,可在无需特定硬件支持的情况下,在通用硬件平台上实现网络压缩与加速。
-
-
-
-
-
-
-
-
-