-
公开(公告)号:CN119740202A
公开(公告)日:2025-04-01
申请号:CN202411768579.6
申请日:2024-12-04
Applicant: 苏州科技大学 , 新型显示与视觉感知石城实验室
IPC: G06F18/27 , G06F3/01 , G06F18/10 , G06F18/2131
Abstract: 本发明公开了一种基于脑电信号的虚拟场景沉浸感预测方法。首先,基于双目成像原理,构建因相机拍摄视场角与人眼视场角不匹配而产生的不同畸变效果的空间畸变模型,并使用基于视场角差异的指数来量化畸变程度。然后,设计涉及虚拟现实空间畸变的人机交互实验,采集不同畸变条件下的主观I PQ评分数据和客观EEG信号数据。对采集的EEG原始信号进行了滤波、去伪影及频谱分析等预处理,以计算指定脑电波频段的绝对功率值。最后,将计算出的脑电绝对功率值与畸变指数结合,构建基于多项式回归算法的沉浸感预测模型,实现对主观沉浸感的客观预测。通过本发明,能够有效揭示虚拟空间畸变对沉浸感的影响机制,并为优化虚拟现实空间设计提供了坚实的理论支持。
-
公开(公告)号:CN119863428A
公开(公告)日:2025-04-22
申请号:CN202411795486.2
申请日:2024-12-09
Applicant: 苏州科技大学 , 新型显示与视觉感知石城实验室
IPC: G06T7/00 , G06V10/26 , G06V10/82 , G06V10/44 , G06N3/0455 , G06N3/0464
Abstract: 本发明涉及睑板腺图像处理技术领域,特别是一种基于卷积神经网络与Transformer技术的睑板腺缺失分级方法。获取睑板腺图像数据集,引入快速前进算法对睑板腺图像数据集进行修复处理,以降低由于泪液反光而导致的睑板腺图像中腺体边界模糊度,提高分割模型对边界特征的敏感性;构建多粒度睑板腺分割模型,将处理后睑板腺图像数据集输入多粒度睑板腺分割模型中并基于卷积神经网络与Transformer技术对多粒度睑板腺分割模型进行训练;使用训练好分割模型对睑板腺图像进行分割,并计算腺体缺失率,进行分级,通过本发明提高了睑板腺图像分割效率,增强了分割结果的鲁棒性和一致性,为睑板腺功能障碍的快速诊断和精准评估提供了技术支持。
-
公开(公告)号:CN119740006A
公开(公告)日:2025-04-01
申请号:CN202411768341.3
申请日:2024-12-04
Applicant: 苏州科技大学 , 新型显示与视觉感知石城实验室
IPC: G06F18/213 , G06F3/01 , G06F18/2131 , G06F18/10
Abstract: 本发明公开了一种基于脑电信号的不同视场大小显示系统沉浸感预测方法。通过结合视场大小与脑电信号的多维特征,构建精准的虚拟场景沉浸感知影响模型,该模型能够量化视场大小对显示系统中用户沉浸感的影响,同时充分考虑人类视觉系统的生理机制。进一步地,通过引入频域分析方法,提取脑电信号中的关键特征,并结合主观沉浸评分,模型能够生成与人眼视觉感知高度一致的沉浸感预测结果。通过本发明,能够显著提升沉浸感预测精度,为虚拟场景的沉浸感优化设计提供了科学依据。
-
公开(公告)号:CN118674687A
公开(公告)日:2024-09-20
申请号:CN202410661348.9
申请日:2024-05-27
Applicant: 苏州科技大学 , 新型显示与视觉感知石城实验室
IPC: G06T7/00 , G06N3/0464 , G06V10/82 , G06V10/774 , G06N3/08 , G06T7/10 , G06V10/40 , G06N3/048 , G06V10/80
Abstract: 本发明公开了基于卷积神经网络的无参考立体图像质量评价方法及系统。提出了基于卷积神经网络的无参考立体图像质量评价方法及系统。本发明旨在通过引入基于多任务CNN质量回归的方法解决现有技术中SIQA未探索多任务质量评估的概念,并同时考虑到人眼双目融合和竞争的感知机制,以增强相关特征提取能力,从而有效感知立体图像的质量。通过结合失真左右视图的融合和视差信息,同时利用结合左、右和立体图像的特征进行训练,使得特征融合更加充分,保持和人类主观评价较高的一致性,最终能够达到良好的准确度和预测性能。
-
公开(公告)号:CN119449276A
公开(公告)日:2025-02-14
申请号:CN202310950962.2
申请日:2023-07-31
Applicant: 苏州科技大学 , 苏州爱宝康养科技有限公司
Abstract: 本发明涉及计算机安全技术领域,尤其是指一种内积公钥加密方法,具体步骤包括:系统初始化阶段,密钥生成中心根据安全参数和谓词编码函数中的确定性算法,输出系统主公钥和系统主私钥;密钥更新阶段,密钥生成中心周期性更新系统主私钥;密钥生成阶段,密钥生成中心根据新的系统主私钥和用户谓词向量,生成用户私钥;加密阶段,消息发送者根据系统主公钥和用户属性,对消息明文进行加密,生成密文;解密阶段,消息接收者根据用户私钥,对密文进行解密。所述内积公钥加密方法具有适应性安全性和更高的实现效率,能够抵抗具有持续泄漏能力攻击者的攻击,同时具有属性隐藏的功能。
-
公开(公告)号:CN119206387A
公开(公告)日:2024-12-27
申请号:CN202411020101.5
申请日:2024-07-29
Applicant: 苏州科技大学
IPC: G06V10/774 , G06V10/764 , G06V10/82 , G06N3/0895 , G06N3/096
Abstract: 本发明提供一种基于伪标签过滤的在线域变化持续学习方法及系统,涉及计算机视觉技术领域,该方法包括获得预训练模型,利用预训练模型对变化的目标域数据进行预测,并生成伪标签进行在线自适应;基于二元分类推导出在线域变化持续学习中基于阈值过滤伪标签的引理,并根据引理设计在线域变化持续学习中的阈值设置原则;利用设计的阈值设置原则过滤模型预测置信度低的伪标签,同时通过引入类先验对齐方法来鼓励模型对未知域样本的公平预测;利用过滤后的伪标签对模型进行更新和优化,得到在线域变化持续学习中的分类预测结果。本发明建立了能够适应CTTA过程的自适应阈值,以保证伪标签的质量。
-
公开(公告)号:CN114463596B
公开(公告)日:2024-11-05
申请号:CN202111633547.1
申请日:2021-12-28
Applicant: 苏州科技大学 , 苏州市人民政府办公室 , 苏州佳图智绘信息技术有限公司
IPC: G06V10/774 , G06V10/764 , G06V10/74 , G06V10/82 , G06V20/70 , G06N3/045 , G06N3/0464 , G06N3/042 , G06N3/08
Abstract: 本发明涉及一种超图神经网络的小样本图像识别方法,利用卷积神经网络中空洞卷积的不同感受野来获取不同结构的多语义特征,构建多语义超图;利用超图神经网络聚合多语义超图中超节点的所有超边信息更新初始超节点特征表示,得到训练集的超节点特征表示;根据训练集的超节点特征表示,得到多语义分布信息,将多语义分布信息与训练集的超节点特征表示进行信息交互,通过相互迭代更新来不断优化多语义超图,得到训练集的目标超节点特征表示,根据训练集的目标超节点特征表示,计算得到训练集中查询集的分类结果。本发明通过超图结构的图像消息传递,捕获丰富的语义嵌入特征和多个语义分布特征,实现了小样本图像分类的识别。
-
公开(公告)号:CN115100470B
公开(公告)日:2024-09-17
申请号:CN202210719747.7
申请日:2022-06-23
Applicant: 苏州科技大学 , 江苏新希望科技有限公司
IPC: G06V10/764 , G06N3/0464 , G06N3/096 , G06V10/774 , G06V10/80 , G06V10/82
Abstract: 本发明涉及一种小样本图像分类系统及方法,多分辨率模块,学习不同分辨率图像的特征嵌入,为输入图像生成深度局部描述符学习不同分辨率图像的特征嵌入,每个查询图像和每个支持类的分布都可在深度局部描述符的级别上表示;全局注意力模块,放大跨维度接受区域,捕获全局维度的重要交互特征;自适应融合模块,联合学习得到的权值向量将局部关系和全局关系自适应地融合在一起,采用非参数最近邻分类器作为动态分类器;自蒸馏模块,将深层网络分类器作为教师网络,对共享第二层卷积模块权重的浅层网络进行蒸馏。卷积神经网络中使用多分辨率学习的方法,全局注意力机制融入自蒸馏方法中,解决小样本学习任务中图像空间冗余问题。
-
公开(公告)号:CN113239961B
公开(公告)日:2023-10-20
申请号:CN202110384686.9
申请日:2021-04-09
Applicant: 苏州科技大学 , 苏州佳图智绘信息技术有限公司
IPC: G06T11/60 , G06F40/211 , G06N3/0475 , G06N3/094 , G06V30/19
Abstract: 本发明涉及一种基于生成对抗网络的文本生成序列图像的方法,该方法包括:构建训练数据库,训练数据库包括训练文本和与原始图像,利用训练文本和原始图像对生成对抗网络模型进行训练;生成对抗网络模型包括混合生成器和鉴别器,混合生成器包括场景图引导的图像生成器和基于序列条件的图像生成器;将待处理的文本输入至训练后的所述生成对抗网络模型中,由训练后的生成对抗网络模型生成与待处理文本相对应的图像并输出。本发明能够生成与文本描述相匹配的视觉上真实的图像,避免了对象布局混乱的问题,提高了输出图像的准确度。
-
公开(公告)号:CN112785624B
公开(公告)日:2023-07-04
申请号:CN202110064596.1
申请日:2021-01-18
Applicant: 苏州科技大学 , 苏州佳图智绘信息技术有限公司
Abstract: 本发明公开了一种基于孪生网络的RGB‑D特征目标跟踪方法,包括以下步骤:构建基于RGB‑D特征的孪生网络模型;模板图像经共享网络处理,获得模板图像的语义特征,将高层语义特征输入至深度卷积网络模块,获得深度图;对深度图进行深度特征提取,获得深度特征信息,通过级联方式将深度特征信息与语义特征进行融合,获得融合后的图像特征;搜索图像经共享网络处理,获得搜索图像的特征,搜索图像的特征经卷积和池化操作,获得搜索图像的上下文信息,通过搜索图像的上下文信息指导融合后的图像特征,生成用于目标定位的自适应特征;将自适应特征与搜索图像通过共享网络处理获得的特征进行互相关操作,对分数图进行插值计算,获得跟踪的结果。其引入深度图,能够实现在复杂场景中高精度跟踪,效果好。
-
-
-
-
-
-
-
-
-