-
公开(公告)号:CN114358084B
公开(公告)日:2025-02-14
申请号:CN202210019486.8
申请日:2022-01-07
Applicant: 吉林大学
IPC: G06F18/213 , G06V10/774 , G06V10/764 , G06V10/82 , G06N3/0464
Abstract: 本发明涉及一种基于DDQN和生成对抗网络的触觉材料分类方法,属于触觉材料的分类方法。使用触觉材料的图片和加速度频谱图训练生成对抗网络GAN,送入VGG19网络中提取特征,设置DDQN的奖励函数,DDQN的评估网络估计Q值,找到全局最优解,保存训练好的网络,根据最大Q值所对应的动作来分类图片。优点是使用生成对抗网络GAN生成的触觉信息去分类触觉材料,提高了数据的抗噪能力,首次将DDQN用于分类问题,引入了卷积神经网络VGG19处理图片,避免了噪声的干扰,保证提取的特征的鲁棒性,避免了复杂的触觉信息采集过程,节省了分类成本,与传统分类的CNN方法相比,只用了很小的时间代价,提高了分类精度,避免了采购昂贵的触觉信息采集设备。
-
公开(公告)号:CN117559450B
公开(公告)日:2024-03-29
申请号:CN202410045282.0
申请日:2024-01-12
Applicant: 吉林大学
IPC: H02J3/00 , G06N3/0464 , G06N3/08 , G06Q50/06
Abstract: 一种基于反馈模型提升非介入式负荷监测精度的方法,属于电力负荷监测技术领域,解决了现有的非介入式负荷监测领域中缺少反馈模型的应用的问题。包括以下步骤:步骤S1,预测模型将总功率分解成负荷预测功率;步骤S2,通过将步骤S1所述的负荷预测功率与负荷真实功率的结合计算出预测模型的预测损失;步骤S3,反馈模型利用步骤S1所述的负荷预测功率重构总功率;步骤S4,通过将步骤S3所述的重构总功率与真实总功率数据的结合计算出反馈模型的重构损失;步骤S5,利用步骤S2所述的预测模型的预测损失和步骤S4所述的反馈模型的重构损失更新预测模型;步骤S6,利用步骤S4所述的反馈模型的重构损失更新反馈模型。
-
公开(公告)号:CN116736975A
公开(公告)日:2023-09-12
申请号:CN202310669957.4
申请日:2023-06-07
Applicant: 吉林大学
IPC: G06F3/01 , G01N21/84 , G06V10/54 , G06V10/77 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/0455 , G06N3/0475 , G06N3/0442 , G06N3/048 , G06N3/084
Abstract: 本发明适用于触觉互联网技术领域,提供了一种基于堆栈式自动编码的力触觉信息的生成方法,本发明基于深度学习的图像特征提取方法,利用深度度卷积模型VGG16提取表面触觉图像的特征,并利用堆栈式自动编码的编码部分将从物理表面获取到的力触觉数据进行实时压缩,从原始力触觉信号中提取出维度远小于其自身的特征,并与上述提取出的表面材质的图像纹理特征相结合,然后在低维空间建立从表面材质的视觉纹理特征到触觉纹理特征的映射模型,获取到的表面材质的触觉纹理特征将通过解码器恢复为表面材质的触觉纹理信号。本发明很大程度上降低了触觉信息采集成本,解决了直接构建映射模型会带来参数量巨大、模型难以优化和运算时间长等问题。
-
公开(公告)号:CN117389971A
公开(公告)日:2024-01-12
申请号:CN202311687488.5
申请日:2023-12-11
Applicant: 吉林大学
IPC: G06F16/174 , G06N20/00 , G06Q50/06 , G06F17/16 , G06F17/18 , G06F18/214
Abstract: 本发明提出了一种云边实时协同的非介入式负荷监测系统及方法,致力于降低协同延迟并提升运行速度,首先在边缘端定期生成高斯随机矩阵,并应用高斯随机矩阵采样负荷监测数据,以得到压缩数据;向云端传输压缩数据并且高斯随机矩阵定期更新;云端依据高斯矩阵和使用K‑SVD算法训练的字典,采用正交匹配追踪算法对压缩数据进行重构,得到恢复数据;生成的恢复数据输入到深度学习模型中,得到识别结果;本发明基于压缩感知的数据压缩恢复算法与基于注意力机制与门控循环单元的数据识别算法,可实现负荷监测数据的边缘端‑云端实时传输以及保证精度下的实时识别,并通过仿真实验表明,本发明可以更好地部署在非介入式家庭电力负荷监测场景中。
-
公开(公告)号:CN117560229A
公开(公告)日:2024-02-13
申请号:CN202410040007.X
申请日:2024-01-11
Applicant: 吉林大学
Abstract: 一种联邦非介入式负荷监测用户验证方法。属于家庭电力负荷监测技术领域,具体涉及联邦非介入式负荷监测中家庭电力用户的验证。其解决了以往的联邦非介入式负荷监测系统容易受到拜占庭用户干扰的问题。所述方法通过为用户分配验证用户对联邦学习中所有用户进行验证,有效的抵御了联邦非介入式负荷监测系统中的拜占庭用户,提高了联邦非介入式负荷监测系统的鲁棒性。本发明所述方法可以应用在家庭电力负荷监测技术领域、家庭电力用户验证技术领域以及家庭电力监测系统鲁棒性提升技术领域。
-
公开(公告)号:CN116736975B
公开(公告)日:2024-11-12
申请号:CN202310669957.4
申请日:2023-06-07
Applicant: 吉林大学
IPC: G06F3/01 , G01N21/84 , G06V10/54 , G06V10/77 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/0455 , G06N3/0475 , G06N3/0442 , G06N3/048 , G06N3/084
Abstract: 本发明适用于触觉互联网技术领域,提供了一种基于堆栈式自动编码的力触觉信息的生成方法,本发明基于深度学习的图像特征提取方法,利用深度度卷积模型VGG16提取表面触觉图像的特征,并利用堆栈式自动编码的编码部分将从物理表面获取到的力触觉数据进行实时压缩,从原始力触觉信号中提取出维度远小于其自身的特征,并与上述提取出的表面材质的图像纹理特征相结合,然后在低维空间建立从表面材质的视觉纹理特征到触觉纹理特征的映射模型,获取到的表面材质的触觉纹理特征将通过解码器恢复为表面材质的触觉纹理信号。本发明很大程度上降低了触觉信息采集成本,解决了直接构建映射模型会带来参数量巨大、模型难以优化和运算时间长等问题。
-
公开(公告)号:CN117560229B
公开(公告)日:2024-04-05
申请号:CN202410040007.X
申请日:2024-01-11
Applicant: 吉林大学
Abstract: 一种联邦非介入式负荷监测用户验证方法。属于家庭电力负荷监测技术领域,具体涉及联邦非介入式负荷监测中家庭电力用户的验证。其解决了以往的联邦非介入式负荷监测系统容易受到拜占庭用户干扰的问题。所述方法通过为用户分配验证用户对联邦学习中所有用户进行验证,有效的抵御了联邦非介入式负荷监测系统中的拜占庭用户,提高了联邦非介入式负荷监测系统的鲁棒性。本发明所述方法可以应用在家庭电力负荷监测技术领域、家庭电力用户验证技术领域以及家庭电力监测系统鲁棒性提升技术领域。
-
公开(公告)号:CN117559450A
公开(公告)日:2024-02-13
申请号:CN202410045282.0
申请日:2024-01-12
Applicant: 吉林大学
IPC: H02J3/00 , G06N3/0464 , G06N3/08 , G06Q50/06
Abstract: 一种基于反馈模型提升非介入式负荷监测精度的方法,属于电力负荷监测技术领域,解决了现有的非介入式负荷监测领域中缺少反馈模型的应用的问题。包括以下步骤:步骤S1,预测模型将总功率分解成负荷预测功率;步骤S2,通过将步骤S1所述的负荷预测功率与负荷真实功率的结合计算出预测模型的预测损失;步骤S3,反馈模型利用步骤S1所述的负荷预测功率重构总功率;步骤S4,通过将步骤S3所述的重构总功率与真实总功率数据的结合计算出反馈模型的重构损失;步骤S5,利用步骤S2所述的预测模型的预测损失和步骤S4所述的反馈模型的重构损失更新预测模型;步骤S6,利用步骤S4所述的反馈模型的重构损失更新反馈模型。
-
公开(公告)号:CN116597171A
公开(公告)日:2023-08-15
申请号:CN202310670008.8
申请日:2023-06-07
Applicant: 吉林大学
IPC: G06V10/54 , G06V10/77 , G06V10/774 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明适用于触觉互联网技术领域,提供了一种基于联邦学习的表面材质触觉纹理特征获取方法,包括以下步骤:进行联邦学习;基于深度学习的图像特征提取方法,利用残差网络模型ResNet提取表面触觉图像的特征;联邦学习与堆栈式自动编码SAE结合提取触觉纹理特征,并选用平均联邦学习算法进行参数更新;联邦学习与门控循环网络GRU结合获取触觉纹理特征,并选用平均联邦学习算法进行参数更新;在训练结束后保存所有模型参数,最后通过映射模型获取触觉纹理特征并通过解码器重构触觉纹理信号。本发明解决了触觉互联网中由于用户数据量不足带来的模型性能退化问题,同时不需要用户将原始数据进行传输,从而保护用户的隐私和数据安全。
-
公开(公告)号:CN114358084A
公开(公告)日:2022-04-15
申请号:CN202210019486.8
申请日:2022-01-07
Applicant: 吉林大学
IPC: G06K9/00 , G06K9/62 , G06V10/774 , G06V10/764 , G06N3/04
Abstract: 本发明涉及一种基于DDQN和生成对抗网络的触觉材料分类方法,属于触觉材料的分类方法。使用触觉材料的图片和加速度频谱图训练生成对抗网络GAN,送入VGG19网络中提取特征,设置DDQN的奖励函数,DDQN的评估网络估计Q值,找到全局最优解,保存训练好的网络,根据最大Q值所对应的动作来分类图片。优点是使用生成对抗网络GAN生成的触觉信息去分类触觉材料,提高了数据的抗噪能力,首次将DDQN用于分类问题,引入了卷积神经网络VGG19处理图片,避免了噪声的干扰,保证提取的特征的鲁棒性,避免了复杂的触觉信息采集过程,节省了分类成本,与传统分类的CNN方法相比,只用了很小的时间代价,提高了分类精度,避免了采购昂贵的触觉信息采集设备。
-
-
-
-
-
-
-
-
-