-
公开(公告)号:CN117388848A
公开(公告)日:2024-01-12
申请号:CN202311363743.0
申请日:2023-10-20
Applicant: 杭州电子科技大学
IPC: G01S13/88
Abstract: 本发明公开了一种基于注意力机制的毫米波静态物体材质检测方法,包括:S1:向目标物体发射调频信号,并采集反射的回波信号,混合得到中频信号;S2:将中频信号进行时频转换,从而得到回波功率与目标物体到雷达的距离之间的关系;S3:计算频域信号的导数,同时使用具备幅值抑制机制的自适应波束成形算法,得到距离角度图;S4:构建并训练材质检测模型,所述材质检测模型融合了VoVNet神经网络和Transformer神经网络;S5:将待测目标物体的距离角度图和频域信号导数输入训练好的材质检测模型,得到材质类型检测结果。本发明能获得静态物体稳定清晰的距离角度图,材质识别的鲁棒性和准确率高。
-
公开(公告)号:CN115376520A
公开(公告)日:2022-11-22
申请号:CN202211030037.X
申请日:2022-08-26
Applicant: 杭州电子科技大学
Abstract: 本发明提供一种用于声纹安全认证系统的重放语音攻击检测方法。首先将语音信号经过预处理,然后通过线性等宽的Gabor滤波器获得若干子带信号,将每个子带信号通过FDEO来获得瞬时幅度和瞬时频率,然后分别作为SENet的输入,得到增强后的IACC和IFCC特征,并且分别经过加窗取平均和离散余弦变换处理获得各自的低维特征向量。然后将提取的IACC和IFCC特征向量分别用来训练各自的高斯混合模型分类器,得到各自的分类器模型参数。在检测时,将待测语音的IACC和IFCC特征向量分别输入到各自的GMM分类器并进行可信度打分,最后进行分数级融合,以此实现真伪语音的判别。
-
公开(公告)号:CN115077684A
公开(公告)日:2022-09-20
申请号:CN202210578015.0
申请日:2022-05-25
Applicant: 杭州电子科技大学
Abstract: 本发明公开一种基于多天线毫米波感知的微米级振动检测方法及系统,本发明方法具体如下:步骤一:机械振动的毫米波感知;步骤二:星座DC偏移纠正;步骤三:基于AD算法的相位提取和噪声去除;步骤四:最大比合并算法处理;步骤五:多天线选择。本发明通过对毫米波感知的微多普勒回波信号进行建模和智能分析,解决了DC偏移、噪声、杂波干扰等对感知回波信号影响的问题,实现了高精度机械振动的检测估计的目标。本发明提出的基于多天线选择优化的毫米波微米级振动检测方法及系统,有效提升系统检测的精确度。本发明基于低成本、便携式、低能耗的硬件毫米波感知技术实现了非接触式的连续振动检测。
-
公开(公告)号:CN114021601A
公开(公告)日:2022-02-08
申请号:CN202111119768.7
申请日:2021-09-24
Applicant: 杭州电子科技大学
Abstract: 本发明公开一种基于毫米波感知的电子设备智能识别装置和方法,该方法通过设置简单的mmWave感知探测装置,获取电子设备反射的非线性响应信号,对非线性响应信号预处理后进行小波信号分析,并基于信号各个维度的特性值进行特征提取,进而利用智能算法实现基于毫米波感知的电子设备的识别。本发明提出的利用电子设备对mmWave感知反射的独特非线性响应信号进行智能分析与识别的方法,该方法简单有效,识别的精确度、准确度、稳定性高且成本低。
-
公开(公告)号:CN119181067A
公开(公告)日:2024-12-24
申请号:CN202411244897.2
申请日:2024-09-06
Applicant: 杭州电子科技大学
Abstract: 本发明公开了基于可靠深度估计的多模态深度融合3D目标检测方法,该方法首先构建图像特征提取网络和毫米波雷达点云特征提取网络,分别提取图像特征和毫米波雷达点云特征。其次将图像和毫米波雷达点云特征进行融合,得到深度概率分布,将深度概率分布与图像特征相乘,得到图像视锥特征,使用深度补全后的激光雷达点云制作深度概率分布标签,基于深度概率分布进行监督训练。然后合并图像视锥特征和毫米波雷达点云特征,再利用Splat网络和可变形注意力机制,得到特征FA。最后基于特征FA,使用3D目标检测头完成3D目标检测,输出检测结果。本发明通过毫米波雷达优化深度估计,从而提升了3D目标检测的准确性和鲁棒性。
-
公开(公告)号:CN117786470A
公开(公告)日:2024-03-29
申请号:CN202310383647.6
申请日:2023-04-12
Applicant: 杭州电子科技大学
IPC: G06F18/241 , A61B5/318 , A61B5/08 , A61B5/113 , A61B5/00 , G01S13/88 , G06F18/214 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于雷达信号的心电信号和呼吸信号分离与重建方法,包括:使用雷达对待测目标发射射频信号并接收回波信号,同时采集参考心电信号和参考呼吸信号;对回波信号进行信号处理,提取胸部位移信号;预处理参考心电信号和参考呼吸信号,构建信号数据集并进行标准化;构建并训练基于注意力模块的深度神经网络,深度神经网络包括:短时傅里叶变换模块、编码器、分离器、解码器、逆短时傅里叶变换模块;通过时频谱映射的方式对标准化后的胸部位移信号进行分离,并重建为心电信号和呼吸信号。本发明提高了心跳信号和呼吸信号的分离效果,并将心跳位移信号重建为具有细粒度心脏事件的心电信号。
-
公开(公告)号:CN119229479A
公开(公告)日:2024-12-31
申请号:CN202411759115.9
申请日:2024-12-03
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于射频热图数据增强的人体姿态估计方法,该方法首先获取人体姿态的网格数据,利用物理光学法模拟雷达,通过照射人体网格模型获得包含雷达截面积的人体网格特征。其次处理包含雷达截面积的人体网格特征,得到初步模拟雷达热图。然后初步模拟雷达热图通过基于U‑net的热图转换网络,输出合成雷达热图,并进行训练。最后将合成雷达热图与真实雷达热图进行组合,构建混合数据集,通过基于雷达热图的人体姿态估计网络,获得人体姿态骨架,并进行训练,完成人体姿态估计。本发明能够准确的生成人体目标的模拟雷达热图,弥补当前基于雷达的人体姿态估计数据集不足,实现对人体姿态更为准确的估计。
-
公开(公告)号:CN117849785A
公开(公告)日:2024-04-09
申请号:CN202410043654.6
申请日:2024-01-11
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于毫米波雷达和相机融合的微动状态心率检测方法,该方法首先通过毫米波雷达向目标人体发射线性调频信号,解析得到四维数据矩阵,通过快速傅里叶变换和巴特利特波束成形,生成距离‑角度图。其次统一毫米波雷达和相机的坐标系,将相机得到的胸膛关节点映射到距离‑角度图中,提取胸膛关节点坐标处的同相正交信号,进行直流偏移补偿。然后基于正反切解调算法提取相位信号并解缠,得到距离变化信号。最后对距离变化信号执行自适应参数的变分模态分解,得到多个本征模态函数,进行频率选取和按心跳能量比例排序,得到心率。本发明有效地去除人体处于微动状态下心跳信号中的各种干扰,得到精准的心率信息。
-
公开(公告)号:CN117606609A
公开(公告)日:2024-02-27
申请号:CN202311306792.0
申请日:2023-10-10
Applicant: 杭州电子科技大学 , 杭州瑞成信息技术股份有限公司
IPC: G01H17/00 , G01S13/88 , G01M1/16 , G01M1/02 , G06F18/10 , G06F18/2131 , G06F18/2431
Abstract: 本发明公开了基于非接触式转子微位移轨迹的旋转不平衡故障检测方法及系统,方法如下:S1、采集旋转设备运行所引起的多方向表面振动数据,即原始数据帧;S2、基于原始数据帧,用振动定位算法分析振动目标位置信息;S3、基于原始数据帧和振动目标位置信息,用振动相位提取算法提取目标振动信号;S4、基于目标振动信号,用相位校正算法校正并提取目标相位信号;S5、基于目标相位信号,用振动特征提取算法提取振动特征;S6、基于提取的振动特征,用特征分析算法诊断旋转不平衡故障。本发明针对旋转不平衡故障,提出用两个同步毫米波雷达跟踪转子轨迹,计算转子轨迹的离心率和扁平度,并结合振幅、转速来诊断旋转不平衡故障,精度高、成本低。
-
公开(公告)号:CN117665805A
公开(公告)日:2024-03-08
申请号:CN202311591492.1
申请日:2023-11-27
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于射频信号的细粒度多尺度人体姿态估计方法,该方法首先使用毫米波雷达对待测目标发射射频信号并接收回波信号,通过信号处理得到距离‑水平角图、距离‑俯仰角图和距离‑多普勒图。其次构建并训练三维多尺度目标检测网络,将上述三个图输入该网络,得到目标在三维雷达空间中的边界框坐标。然后基于边界框坐标,使用增强点云生成算法生成目标的增强型点云。最后构建基于点云网络、分组注意力机制和循环神经网络的多尺度人体骨架估计网络,将增强型点云输入该网络,得到目标的姿态骨架。本发明预测的人体姿态更为准确,工作不受视距,光照强度等不利因素的影响,能够保护用户的隐私。
-
-
-
-
-
-
-
-
-