生成微件的方法及装置
    11.
    发明公开

    公开(公告)号:CN102096581A

    公开(公告)日:2011-06-15

    申请号:CN200910258109.4

    申请日:2009-12-10

    CPC classification number: G06F9/451 G06F16/9577

    Abstract: 本发明公开了一种生成微件的方法及装置,属于网络应用技术领域。所述方法包括:根据用户指定的网页和在所述网页上标记的页面片段创建待获取数据的属性信息;根据创建的所述待获取数据的属性信息获取结构化数据;将获取到的所述结构化数据转换为可视内容。所述装置包括:创建模块、获取模块和转换获取。本发明通过创建待获取数据的属性信息,并根据创建的属性信息获取结构化数据,使获取的数据不仅内容丰富,且由于待获取数据的属性信息是根据用户指定的网页而创建的,因此,用户可直接参与到生成微件的过程中来,从而具有尽可能满足多样化的用户需求的效果。

    视频换脸方法、装置及存储介质

    公开(公告)号:CN114943912B

    公开(公告)日:2024-10-18

    申请号:CN202210373752.7

    申请日:2022-04-07

    Abstract: 本申请提供了视频换脸模型的训练方法及视频换脸方法。首先在图像数据集上利用判别器对视频换脸模型中外观编码器和生成器进行对抗式训练直到判别器无法判断生成器的输出结果的真实性;接着视频数据集上通过光流场判别器继续对该视频换脸模型中外观编码器和生成器进行对抗式训练直到光流场判别器无法判断来自生成器的相邻两帧图像之间的光流场的真实性。这样,通过采用这种面向视频的光流场判别器在视频数据集上进一步训练换脸模型,加速了模型收敛,使得在少量人脸图像样本集上训练的生成器能生成逼真和更加稳定的图像,减少了合成后视频中的抖动、伪影和闪烁等现象,同时也摆脱了对大量高质量样本数据的依赖。

    视频换脸方法、装置及存储介质

    公开(公告)号:CN114943912A

    公开(公告)日:2022-08-26

    申请号:CN202210373752.7

    申请日:2022-04-07

    Abstract: 本申请提供了视频换脸模型的训练方法及视频换脸方法。首先在图像数据集上利用判别器对视频换脸模型中外观编码器和生成器进行对抗式训练直到判别器无法判断生成器的输出结果的真实性;接着视频数据集上通过光流场判别器继续对该视频换脸模型中外观编码器和生成器进行对抗式训练直到光流场判别器无法判断来自生成器的相邻两帧图像之间的光流场的真实性。这样,通过采用这种面向视频的光流场判别器在视频数据集上进一步训练换脸模型,加速了模型收敛,使得在少量人脸图像样本集上训练的生成器能生成逼真和更加稳定的图像,减少了合成后视频中的抖动、伪影和闪烁等现象,同时也摆脱了对大量高质量样本数据的依赖。

    生成微件的方法及装置
    15.
    发明授权

    公开(公告)号:CN102096581B

    公开(公告)日:2015-03-18

    申请号:CN200910258109.4

    申请日:2009-12-10

    CPC classification number: G06F9/451 G06F16/9577

    Abstract: 本发明公开了一种生成微件的方法及装置,属于网络应用技术领域。所述方法包括:根据用户指定的网页和在所述网页上标记的页面片段创建待获取数据的属性信息;根据创建的所述待获取数据的属性信息获取结构化数据;将获取到的所述结构化数据转换为可视内容。所述装置包括:创建模块、获取模块和转换获取。本发明通过创建待获取数据的属性信息,并根据创建的属性信息获取结构化数据,使获取的数据不仅内容丰富,且由于待获取数据的属性信息是根据用户指定的网页而创建的,因此,用户可直接参与到生成微件的过程中来,从而具有尽可能满足多样化的用户需求的效果。

    基于协同自监督视频表示学习的视频动作识别方法及装置

    公开(公告)号:CN118262411A

    公开(公告)日:2024-06-28

    申请号:CN202410418093.3

    申请日:2024-04-08

    Abstract: 本发明提出一种基于协同自监督视频表示学习的视频动作识别方法和装置,包括:将人物动作视频输入视频编码器进行特征提取,得到训练视频特征序列;通过图像编码器对人物动作视频的关键帧信息进行特征提取,得到图像特征序列,训练视频特征序列和图像特征序列通过对比学习损失约束,获取训练视频静态特征序列;融合训练视频静态特征序列和人物动作视频的人物动作特征序列,得到融合特征序列,根据融合特征序列重建恢复视频,根据恢复视频和人物动作视频构建损失函数训练图像编码器;在训练完成后的编码器后添加全连接层,得到中间动作识别模型,通过已标注动作类别标签的视频数据集微调中间动作识别模型,以完成动作识别任务。

    一种平衡涂鸦标注偏好的弱监督语义分割方法及系统

    公开(公告)号:CN117853717A

    公开(公告)日:2024-04-09

    申请号:CN202211216511.8

    申请日:2022-09-30

    Abstract: 本发明提出一种平衡涂鸦标注偏好的弱监督语义分割方法,包括:构建语义分割模型;对训练图片进行涂鸦标注;提取该训练图片的深层语义特征,以该深层语义特征,获得对该训练图片的初步预测图;提取该训练图片的浅层特征,对该初步预测图进行局部聚合,获得对该训练图片的最终预测图;获得该训练图片的标注概率图;以该语义分割模型的逐像素加权交叉熵损失和分割预测学习损失加和获得总损失函数;迭代更新该语义分割模型的模型参数,直到该总损失函数收敛,以此时的语义分割模型为最终分割模型。本发明还提出一种平衡涂鸦标注偏好的弱监督语义分割系统,以及一种执行弱监督语义分割的数据处理装置。

    一种基于人脸的族群识别方法和族群识别模型的训练方法

    公开(公告)号:CN116110088A

    公开(公告)日:2023-05-12

    申请号:CN202211106186.X

    申请日:2022-09-10

    Abstract: 本发明提供了一种基于人脸的族群识别模型的训练方法,族群识别模型包括编码器和族群预测层,训练方法包括:A1、获取包括多张人脸图像样本的第一训练集和第二训练集,其中第二训练集中的人脸图像样本设有指示其所属族群的标签;A2、利用第一训练集中的人脸图像样本对编码器进行多轮自监督迭代训练以训练编码器提取人脸特征,其中,自监督训练时利用解码器根据人脸特征重构得到的人脸图像和对应的人脸图像样本确定的损失值更新编码器的参数;A3、利用第二训练集对族群识别模型进行多轮迭代训练以识别输入的人脸图像样本对应的族群,其中,族群识别模型的编码器的初始参数为经步骤A2训练的编码器的参数。

    一种机器人与手机协作跟踪行人的方法

    公开(公告)号:CN103345752B

    公开(公告)日:2016-03-09

    申请号:CN201310280702.5

    申请日:2013-07-05

    Abstract: 本发明提出一种移动机器人与手机协作跟踪行人的方法,采用移动机器人与手机相互协作的方式对行人进行跟踪。本发明针对目前智能机的普及,通过行人随身携带的手机与移动机器人协作,完成跟踪任务,本发明通过人的运动信息来跟踪特定的人。手机根据集成的惯性传感器的测量数据计算出人步行的速度和方向,并把该信息发送给机器人。而机器人通过自身的激光测距仪或者其他装置测出附近的行人的步行速度与方向,找出符合目标行人的运动特征的人,本发明不受光照影响,应用范围广,精确率高。

Patent Agency Ranking