-
公开(公告)号:CN116883420A
公开(公告)日:2023-10-13
申请号:CN202310655638.8
申请日:2023-06-02
Applicant: 深圳大学
IPC: G06T7/11 , G06V10/26 , G06V10/42 , G06V10/44 , G06V10/52 , G06V10/54 , G06V10/80 , G06V10/82 , G06V10/764 , G06N3/0455 , G06N3/0464 , G06N3/09 , G06N3/0895
Abstract: 本发明公开了一种光学相干断层扫描图像中脉络膜新生血管分割方法及系统,通过构建基于UNet的分割网络,下采样时设有两条路径,用来分别提取多尺度的全局特征以及多尺度的具有局部语义信息和长距离依赖信息的全局特征,并将两条路径上提取的特征进行融合,输出各个尺度的融合后特征,能够充分地提取特征信息;上采样时将相同尺度的融合后特征和上采样特征进行增强后再融合,能够更加聚焦上采样过程中病灶特征的生成,使得上采样的过程中病灶边界信息被作为监督信息增强边界信息的表达,能够进行精细化分割,提高分割效果。
-
公开(公告)号:CN115205410A
公开(公告)日:2022-10-18
申请号:CN202210718541.2
申请日:2022-06-23
Applicant: 深圳大学
Abstract: 本发明公开了一种视网膜光学相干断层扫描图像检测方法、装置、终端及介质,通过卷积神经网络获取到不同尺度的多个图像特征,分别用来提取局部分类标记和通过Transformer层提取全局分类标记,并在Transformer层中采用交叉注意力模块来交换不同尺度图像特征之间的特征信息以弥补Transformer模型提取局部特征的不足,然后将全局分类标记与局部分类标记融合,即进一步将图像中的局部信息与全局信息相结合,从而获得精准的识别和分类结果。
-
公开(公告)号:CN108107435A
公开(公告)日:2018-06-01
申请号:CN201711289669.7
申请日:2017-12-07
Applicant: 深圳大学
IPC: G01S15/06
Abstract: 本发明适用于无线感知与人机交互技术改进领域,提供了一种基于超声波的虚拟现实跟踪方法,包括:S1、利用头戴式VR设备接收超声波数据流信息;S2、对接收到的超声波数据流信息进行数据净化处理;S3、利用相位变化估算出相对路径和初始位置信息;S4、根据相对路径和初始位置信息估算出二维下路径变化的运动轨迹并输出。该方法能够取得高精度、高鲁棒性的结果,在VR感知、人机交互及其游戏等方面有很高的学术和应用价值;摒弃过多外设,只在头戴式设备中嵌入相应的扬声器和麦克风设置,不仅降低复杂度也大大降低了成本,通过利用超声波信号来估计目标的位置信息,实现了高精度、鲁棒性高的VR目标定位跟踪。
-
公开(公告)号:CN113421243B
公开(公告)日:2023-06-02
申请号:CN202110700727.0
申请日:2021-06-23
Applicant: 深圳大学
IPC: G06T7/00 , G06V10/764 , G06N3/042 , G06N3/045 , G06N3/094
Abstract: 本发明公开了一种基于知识蒸馏网络检测眼底图像类型的方法及装置,方法包括步骤:在教师网络和学生网络之间设置若干个教师辅助网络,得到基础网络架构;在所述基础网络架构中的每一个网络的最后特征输出层中增设稠密传输模块,在所述基础网络构架中的任意两个相邻网络之间设置对抗学习网络的判别器,构建知识蒸馏网络模型模型;将已标记眼底图像输入到所述知识蒸馏网络模型中进行训练,得到训练后知识蒸馏网络模型;将待测眼底图像输入到所述训练后知识蒸馏网络模型,输出待测眼底图像的类型。本发明方法能够有效地避免蒸馏过程中的特征信息损失,使得学生网络能以较小的尺寸实现对眼底图像类型较高的预测精度。
-
公开(公告)号:CN113240655A
公开(公告)日:2021-08-10
申请号:CN202110559562.X
申请日:2021-05-21
Applicant: 深圳大学
Abstract: 本发明公开了一种自动检测眼底图像类型的方法、存储介质及装置,方法包括步骤:分别通过弱增强器和强增强器两个不同的操作来获得两种不同版本的未标记眼底图像,首先,利用弱增强器来生成伪标签,该伪标签用作强增强版本未标记眼底图像的监督训练标签;为了提高分类器的分类性能,将E‑GAN集成到网络中,该网络使用已标记眼底图像的压缩版本来生成生成高质量已标记眼底图像;最后将自注意力模块,空间注意力模块和通道注意力模块与分类器模型相结合,以增强特征提取能力。实验结果表明,本发明提出的方法可以在已标记眼底图像较少的情况下获得较好的类别识别准确率。
-
公开(公告)号:CN107943300A
公开(公告)日:2018-04-20
申请号:CN201711293631.7
申请日:2017-12-07
Applicant: 深圳大学
IPC: G06F3/01
CPC classification number: G06F3/017
Abstract: 本发明适用于无线识别技术改进领域,提供了一种基于超声波的手势识别方法,基于超声波的手势识别的方法及控制系统。该方法通过利用内置于多媒体终端内的多个麦克风和扬声器,实现以上所述的功能。所述方法包含的步骤主要包括:扬声器发送单个或者多个频率的余弦波超声波,麦克风采集经由人手移动时反射回来的超声波信号,再经过一系列的数字信号处理方法得到人手相对于多个麦克风的相对移动位移,最终根据可以预先自定义好的各个不同手势的手相对于多个麦克风的相对移动位移的模板识别不同的可操控多媒体终端的手势。
-
公开(公告)号:CN113240655B
公开(公告)日:2023-04-07
申请号:CN202110559562.X
申请日:2021-05-21
Applicant: 深圳大学
IPC: G06T7/00 , G06V10/764 , G06V10/44 , G06V10/82 , G06N3/0464 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种自动检测眼底图像类型的方法、存储介质及装置,方法包括步骤:分别通过弱增强器和强增强器两个不同的操作来获得两种不同版本的未标记眼底图像,首先,利用弱增强器来生成伪标签,该伪标签用作强增强版本未标记眼底图像的监督训练标签;为了提高分类器的分类性能,将E‑GAN集成到网络中,该网络使用已标记眼底图像的压缩版本来生成生成高质量已标记眼底图像;最后将自注意力模块,空间注意力模块和通道注意力模块与分类器模型相结合,以增强特征提取能力。实验结果表明,本发明提出的方法可以在已标记眼底图像较少的情况下获得较好的类别识别准确率。
-
公开(公告)号:CN113421243A
公开(公告)日:2021-09-21
申请号:CN202110700727.0
申请日:2021-06-23
Applicant: 深圳大学
Abstract: 本发明公开了一种基于知识蒸馏网络检测眼底图像类型的方法及装置,方法包括步骤:在教师网络和学生网络之间设置若干个教师辅助网络,得到基础网络架构;在所述基础网络架构中的每一个网络的最后特征输出层中增设稠密传输模块,在所述基础网络构架中的任意两个相邻网络之间设置对抗学习网络的判别器,构建知识蒸馏网络模型模型;将已标记眼底图像输入到所述知识蒸馏网络模型中进行训练,得到训练后知识蒸馏网络模型;将待测眼底图像输入到所述训练后知识蒸馏网络模型,输出待测眼底图像的类型。本发明方法能够有效地避免蒸馏过程中的特征信息损失,使得学生网络能以较小的尺寸实现对眼底图像类型较高的预测精度。
-
公开(公告)号:CN107484124B
公开(公告)日:2019-07-26
申请号:CN201710612616.8
申请日:2017-07-25
Applicant: 深圳大学
Abstract: 本发明提供了一种基于CSI的虚拟现实跟踪方法及系统,该虚拟现实跟踪方法包括如下步骤:数据接收步骤:服务处理终端接收多个数据终端发送的信道状态信息,多个所述数据终端接收穿戴式设备发送的WiFi数据包,并将接收到的WiFi数据包定义为信道状态信息;数据处理步骤:服务处理终端将通过评估所有WiFi数据包传播路径的发射角度和连续包的衰减值来估算包与包之间目标的位移值,从而得到目标的运动轨迹。本发明的有益效果是:本发明只在头戴式设备中嵌入商用WiFi设备,不仅降低复杂度也大大降低了成本,通过利用无处不在的WiFi信号来估计目标的位置信息,实现了高精度、鲁棒性高的VR目标定位跟踪。
-
公开(公告)号:CN107484124A
公开(公告)日:2017-12-15
申请号:CN201710612616.8
申请日:2017-07-25
Applicant: 深圳大学
CPC classification number: H04L67/38 , G06F2203/012 , H04W4/029
Abstract: 本发明提供了一种基于CSI的虚拟现实跟踪方法及系统,该虚拟现实跟踪方法包括如下步骤:数据接收步骤:服务处理终端接收多个数据终端发送的信道状态信息,多个所述数据终端接收穿戴式设备发送的WiFi数据包,并将接收到的WiFi数据包定义为信道状态信息;数据处理步骤:服务处理终端将通过评估所有WiFi数据包传播路径的发射角度和连续包的衰减值来估算包与包之间目标的位移值,从而得到目标的运动轨迹。本发明的有益效果是:本发明只在头戴式设备中嵌入商用WiFi设备,不仅降低复杂度也大大降低了成本,通过利用无处不在的WiFi信号来估计目标的位置信息,实现了高精度、鲁棒性高的VR目标定位跟踪。
-
-
-
-
-
-
-
-
-