-
公开(公告)号:CN119919701A
公开(公告)日:2025-05-02
申请号:CN202411682539.X
申请日:2024-11-22
Applicant: 苏州科技大学
IPC: G06V10/764 , G06V10/74 , G06V10/82 , G06N3/096
Abstract: 本发明涉及计算机视觉领域,尤其涉及一种基于logit调节的小样本类增量学习的图像分类方法及系统。本发明构建图像分类模型,所述图像分类模型包括依次连接的:特征提取模块、原型相似度计算模块与logit调节模块;利用基类数据集对特征提取模块进行训练并冻结;基于预处理后的基类数据集,构造多个伪增量阶段的伪新类数据;基于每个基类的原型与每个伪增量阶段的每个伪新类的原型,通过多个伪增量阶段对logit调节模块进行训练,得到训练好的logit调节模块;将训练好的logit调节模块冻结后,得到目标图像分类模型;通过目标图像分类模型,对小样本增量阶段的新类样本进行图像分类。本发明提高了图像分类的精度。
-
公开(公告)号:CN119740202A
公开(公告)日:2025-04-01
申请号:CN202411768579.6
申请日:2024-12-04
Applicant: 苏州科技大学 , 新型显示与视觉感知石城实验室
IPC: G06F18/27 , G06F3/01 , G06F18/10 , G06F18/2131
Abstract: 本发明公开了一种基于脑电信号的虚拟场景沉浸感预测方法。首先,基于双目成像原理,构建因相机拍摄视场角与人眼视场角不匹配而产生的不同畸变效果的空间畸变模型,并使用基于视场角差异的指数来量化畸变程度。然后,设计涉及虚拟现实空间畸变的人机交互实验,采集不同畸变条件下的主观I PQ评分数据和客观EEG信号数据。对采集的EEG原始信号进行了滤波、去伪影及频谱分析等预处理,以计算指定脑电波频段的绝对功率值。最后,将计算出的脑电绝对功率值与畸变指数结合,构建基于多项式回归算法的沉浸感预测模型,实现对主观沉浸感的客观预测。通过本发明,能够有效揭示虚拟空间畸变对沉浸感的影响机制,并为优化虚拟现实空间设计提供了坚实的理论支持。
-
公开(公告)号:CN114742922B
公开(公告)日:2024-11-29
申请号:CN202210362444.4
申请日:2022-04-07
Applicant: 苏州科技大学
IPC: G06T11/40 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明公开了一种自适应的图像引擎色彩优化方法、系统及存储介质,包括:从AVA数据集中获取数据集中的目标图像,对所述目标图像使用退化算法得到原始图像,将原始图像和对应的目标图像组合成图像对构建初始数据集,通过NIMA模型分别对初始数据集中的目标图像及原始图像进行评分,根据评分对初始数据集进行调整生成最终数据集;基于全卷积神经网络构建图像引擎色彩优化模型,将最终数据集输入图像引擎色彩优化模型进行训练,通过所述图像引擎色彩优化模型实现图像色彩优化。本发明中采用全卷积神经网络融合了多种图像优化算法,可以替代多种独立算法组合而成的传统算法,构建大规模数据集以增强网络的泛化性能,防止过拟合。
-
公开(公告)号:CN112233031B
公开(公告)日:2024-11-29
申请号:CN202011105046.1
申请日:2020-10-15
Applicant: 苏州科技大学
Abstract: 本发明揭示了一种液晶显示动态图像感知效果补偿方法及系统,方法包括输入一个图像序列并对其相邻帧进行运动估计,获得相邻帧图像的运动方向和运动速度;根据图像运动速度建立基于人眼实际追踪速度优化的动态调制传递函数;对优化的动态调制传递函数做约束上界的取倒数处理建立图像运动补偿函数,根据图像运动补偿函数,针对不同位数的二进制液晶显示系统建立相应的自适应图像运动补偿函数,通过自适应图像运动补偿函数对原始图像序列逐帧进行处理,获得运动补偿图像序列。本发明普遍适用于市场上主流液晶显示系统,可显著提升动态图像显示质量。
-
公开(公告)号:CN118886599A
公开(公告)日:2024-11-01
申请号:CN202410900400.1
申请日:2024-07-05
Applicant: 苏州科技大学
IPC: G06Q10/063 , G06Q50/08 , G06F17/18 , G06F30/23 , G06T17/20
Abstract: 本发明公开了一种古建筑风险评估方法及装置,属于计算机应用技术领域。方法包括获取对古建筑结构安全产生影响的风险因素;获取古建筑对应的点云数据并基于点云数据建立古建筑的三维实体化几何模型,进一步结合实时沉降值等因素对影响古建筑安全的风险因素进行分析,筛选出显著影响古建筑安全的风险因素;根据筛选出的风险因素,基于多元线性回归分析和风险因素对应的传感器数据,构建风险状态预测模型,可基于该模型进行风险状态预测。本发明能够提高风险预测结果的准确性和可靠性。
-
公开(公告)号:CN114241052B
公开(公告)日:2023-09-08
申请号:CN202111616064.0
申请日:2021-12-27
Applicant: 江苏贝思旺科技有限公司 , 苏州科技大学
IPC: G06T7/73 , G06T7/80 , G06T7/11 , G06T3/40 , G06N3/0442 , G06N3/0475 , G06N3/094
Abstract: 本发明涉及一种基于布局图的多物体场景新视角图像生成方法,包括将多个图像的布局图输入至布局图预测器,获得新视角下的布局图;输入多个图像,对图像中的每个对象实例进行采样,并将其与相机位姿矩阵沿通道方向连接构建输入张量,将构建的张量输入至像素预测器,获得新视角下的各个物体的图像;将新视角下的布局图和新视角下的各个物体的图像输入至场景生成器中,各个物体的图像依次经过编码器和融合器,得到一个包含所有物体信息的融合特征,通过解码器生成场景图像。本发明通过场景的布局图信息指导网络生成场景图像,不依赖输入图像的深度图,生成的图像更加清晰真实,解决了现有生成图像中精度较低和准确度较低的问题。
-
公开(公告)号:CN116030094A
公开(公告)日:2023-04-28
申请号:CN202310036508.6
申请日:2023-01-10
Applicant: 苏州科技大学 , 苏州中星拟景信息技术有限公司
Abstract: 本发明涉及一种密集场景中的多目标跟踪方法、装置及电子设备,方法包括:获取第T帧图像并对其进行下采样,得到若干下采样特征图;基于若干下采样特征图得到第一特征图,并对第一特征图进行映射得到热力图检测结果,得到目标人物检测框;同时对第T‑1帧图像中的目标人物在第T帧图像中的位置进行定位,得到定位结果;将目标人物检测框和定位结果进行IOU匹配,若IOU匹配均成功,则完成跟踪;若存在IOU匹配未成功,执行下一步;基于若干下采样特征图得到第二特征图,将第二特征图进行处理后进行二次匹配,若二次匹配均成功,则完成跟踪;若二次匹配未成功,不断循环上述两次匹配。本发明能够在拥挤场景下提高多目标跟踪精度。
-
公开(公告)号:CN114463596A
公开(公告)日:2022-05-10
申请号:CN202111633547.1
申请日:2021-12-28
Applicant: 苏州科技大学 , 苏州市人民政府办公室 , 苏州佳图智绘信息技术有限公司
IPC: G06V10/774 , G06V10/764 , G06V10/74 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明涉及一种超图神经网络的小样本图像识别方法,利用卷积神经网络中空洞卷积的不同感受野来获取不同结构的多语义特征,构建多语义超图;利用超图神经网络聚合多语义超图中超节点的所有超边信息更新初始超节点特征表示,得到训练集的超节点特征表示;根据训练集的超节点特征表示,得到多语义分布信息,将多语义分布信息与训练集的超节点特征表示进行信息交互,通过相互迭代更新来不断优化多语义超图,得到训练集的目标超节点特征表示,根据训练集的目标超节点特征表示,计算得到训练集中查询集的分类结果。本发明通过超图结构的图像消息传递,捕获丰富的语义嵌入特征和多个语义分布特征,实现了小样本图像分类的识别。
-
公开(公告)号:CN114241052A
公开(公告)日:2022-03-25
申请号:CN202111616064.0
申请日:2021-12-27
Applicant: 江苏贝思旺科技有限公司 , 苏州科技大学
Abstract: 本发明涉及一种基于布局图的多物体场景新视角图像生成方法,包括将多个图像的布局图输入至布局图预测器,获得新视角下的布局图;输入多个图像,对图像中的每个对象实例进行采样,并将其与相机位姿矩阵沿通道方向连接构建输入张量,将构建的张量输入至像素预测器,获得新视角下的各个物体的图像;将新视角下的布局图和新视角下的各个物体的图像输入至场景生成器中,各个物体的图像依次经过编码器和融合器,得到一个包含所有物体信息的融合特征,通过解码器生成场景图像。本发明通过场景的布局图信息指导网络生成场景图像,不依赖输入图像的深度图,生成的图像更加清晰真实,解决了现有生成图像中精度较低和准确度较低的问题。
-
公开(公告)号:CN113239961A
公开(公告)日:2021-08-10
申请号:CN202110384686.9
申请日:2021-04-09
Applicant: 苏州科技大学 , 苏州佳图智绘信息技术有限公司
IPC: G06K9/62 , G06F40/211 , G06N3/04 , G06N3/08
Abstract: 本发明涉及一种基于生成对抗网络的文本生成序列图像的方法,该方法包括:构建训练数据库,训练数据库包括训练文本和与原始图像,利用训练文本和原始图像对生成对抗网络模型进行训练;生成对抗网络模型包括混合生成器和鉴别器,混合生成器包括场景图引导的图像生成器和基于序列条件的图像生成器;将待处理的文本输入至训练后的所述生成对抗网络模型中,由训练后的生成对抗网络模型生成与待处理文本相对应的图像并输出。本发明能够生成与文本描述相匹配的视觉上真实的图像,避免了对象布局混乱的问题,提高了输出图像的准确度。
-
-
-
-
-
-
-
-
-