基于对抗生成的非配对面对面表情编辑方法

    公开(公告)号:CN116152891A

    公开(公告)日:2023-05-23

    申请号:CN202211709032.X

    申请日:2022-12-29

    Inventor: 米建勋 邹立志

    Abstract: 本发明涉及一种基于对抗生成的非配对面对面表情编辑方法,属于深度学习的图像生成领域。该方法通过专门的表情分割模型从人脸中提取与表情相关的人脸轮廓图,使得输入到生成器的表情约束更为准确,然后利用改进的表情一致性损失和注意力机制进一步的保证编辑后的表情能保留更多的身份信息,且同时不失真。

    基于遗传算法和BP神经网络的人体健康指标的预测算法

    公开(公告)号:CN110097973A

    公开(公告)日:2019-08-06

    申请号:CN201910388960.2

    申请日:2019-05-10

    Abstract: 本发明公开了一种基于遗传算法和BP神经网络的人体健康指标的预测算法,包括如下步骤(1)采集体征数据并进行遗传编码形成初始化种群,并将初始化种群依次进行计算个体适应度、选择算子、交叉算子和变异算子;(2)设置融合层的最大遗传代数i为100,并将个体适应度、选择算子、交叉算子和变异算子分别计算后的种群均输入至融合层;(3)将融合层满足迭代要求的种群输入BP神经网络,经过BP神经网络的训练和学习实现对人体健康指标的预测。本发明通过遗传算对采集的初始数据进行处理,可实现数据的最优解,再输入至BP神经网络,使得输入BP神经网络数据更正则化,提高了BP神经网络中权值的精度、训练效率、网络性能和网络的逼近能力。

    基于视觉Transformer和卷积网络相融合的人脸表情识别方法

    公开(公告)号:CN115937945A

    公开(公告)日:2023-04-07

    申请号:CN202211590920.4

    申请日:2022-12-12

    Abstract: 本发明属于计算机视觉的图像分类领域,具体涉及一种基于视觉Transformer和卷积网络相融合的人脸表情识别方法,该方法具有如下特征,包括以下步骤:步骤1,将待训练图像进行预处理获得预处理图像;步骤2,将预处理图像输入到基于视觉Transformer和卷积网络相融合的模型进行训练,进而得到模型的权重文件,该模型包括卷积模块、编码器以及注意力机制,所述卷积层包括对图片特征的位置信息进行关联;所述编码器包多个残差模块,所述残差模块是将编码器的输入与编码器最后输出作为编码器最后的输出结果,编码器当中由多个残差模块组成,并将这些输出作为融合注意力的输入;所述融合注意力机制将池化层中的输出作为注意力机制模块的输入,将输入的特征图使用自适应的注意力机制找出特征中不同的权重响应,最后输入到视觉Transformer当中进行训练;步骤3,加载模型权重文件,将测试的人脸表情图片输入到模型中得出表情预测结果。此外,本发明的人脸表情识别割模型对各个类别之间的特征更好的分离开,提高了表情识别模型预测的精度。

    一种可穿戴设备的加密传输方法

    公开(公告)号:CN110177000A

    公开(公告)日:2019-08-27

    申请号:CN201910424097.1

    申请日:2019-05-21

    Abstract: 本发明公开了一种可穿戴设备的加密传输方法。发射端通过人体生物信息监测设备采集人体数据。采集完成后,接收端将与发射端进行匹配连接。此时接收端向发射端发送一串明文同步数据帧,发射端接收明文数据后,将会把时间戳作种子密钥,使用SHA1加密算法得到计算结果并向接收端返回ACK。接收端用SHA1加密算法计算,并把结果发送给发射端。发射端将收到的计算结果与自身种子密钥进行比对,判断是否认证成功。认证成功后,进行数据传输,发射端对所传输的数据皆以AES128加密标准的加密方式进行数据加密,保证数据传输的安全性。接收端同样以AES128加密标准的解密方式进行数据接收。通过上述方式,本发明能保证数据传输安全性,防范用户信息的泄露,能够有效保障使用者的信息安全。

Patent Agency Ranking