基于解纠缠超图对比学习的推荐方法

    公开(公告)号:CN120086434A

    公开(公告)日:2025-06-03

    申请号:CN202411976971.X

    申请日:2024-12-31

    Abstract: 本发明公开基于解纠缠超图对比学习的推荐方法,包括有如下步骤:步骤1、定义 和 来分别表示用户和物品相对应的嵌入向量,采用原始HCCF框架图神经网络来聚合每个节点的邻居信息,并通过叠加多个嵌入传播层来精细化用户和物品的表达;步骤2、生成用户和物品的意图表示;步骤3、得到用户和物品在超图空间中的嵌入Tl(u)和Tl(v);步骤4、将步骤1、步骤2和步骤3所得到的嵌入向量进行结合,通过使用多层GNN的堆叠,实现嵌入向量的聚合。该方法旨在通过实施意图解纠缠的步骤,确保能够精确地识别复杂的用户‑物品交互背后的潜在意图,对于驱动用户‑物品交互行为背后的用户(物品)意图加以区分。

    基于令牌融合的自回归视觉目标跟踪算法

    公开(公告)号:CN119477974A

    公开(公告)日:2025-02-18

    申请号:CN202411519696.9

    申请日:2024-10-29

    Abstract: 本发明公开基于令牌融合的自回归视觉目标跟踪算法,具体包括以下步骤:步骤1、获取公开的视觉目标跟踪数据集,并将数据集转换为中心坐标格式;步骤2、对给定视频序列的初始模板、在当前时刻的在线模板以及搜索图像进行预处理,得到初始模板、动态模板和搜索图像的视觉嵌入;对输入的视频的当前搜索图像的前历史N帧中的目标框的角坐标序列进行预处理,得到当前搜索图像的历史轨迹词嵌入;步骤3、构建基于令牌融合的自回归视觉目标跟踪模型,并设计损失函数;步骤4、得到最终的基于令牌融合的自回归视觉目标跟踪模型;该方法解决了现有方法所存在的时空信息利用不足以及搜索区域背景信息冗余所带来的模型特征提取能力不足的问题。

    融合几何结构的跨域场景服装图像检索方法

    公开(公告)号:CN120086401A

    公开(公告)日:2025-06-03

    申请号:CN202411979683.X

    申请日:2024-12-31

    Abstract: 本发明公开融合几何结构的跨域场景服装图像检索方法,具体为:步骤1、选择DeepFashion为服装图像检索数据集并转化为COCO格式;步骤2、构建融合几何结构的跨域场景服装图像检索模型;步骤3、以步骤2所构建的融合几何结构的跨域场景服装图像检索模型,利用步骤1转换好格式的数据集对融合几何结构的跨域场景服装图像检索模型进行训练,得到最终的检索模型;步骤4、跨域服装图像检索功能的实现。该方法旨在解决跨域场景下服装图像因背景复杂、视觉相似、易被遮挡等因素导致的检索偏差问题。

    多传感器存在监测区域部分重叠的扩展目标跟踪方法

    公开(公告)号:CN104778358B

    公开(公告)日:2017-11-10

    申请号:CN201510166517.2

    申请日:2015-04-09

    Abstract: 本发明公开的多传感器存在监测区域部分重叠的扩展目标跟踪方法,对当前量测集进行滤波时使用的高斯分量为当前时刻预测的高斯分量,而非任一传感器量测更新后的高斯分量,使得各个传感器滤波更新后的结果相互独立;当各个传感器量测均参与滤波更新后,对所有传感器的结果高斯项进行判断:若该传感器估计的高斯项中表示目标位置的分量落在重叠区域,则将其权值进行求平均值优化处理;最后,将所有传感器估计出的高斯项的权值、均值以及协方差合并为一个高斯分量作为下一时刻的预测高斯分量。本发明多传感器存在监测区域部分重叠的扩展目标跟踪方法消除了重叠区域带来的目标数目过估计问题以及为未重叠区域带来的量测信息严重丢失问题。

    基于容积卡尔曼滤波的扩展目标概率假设密度滤波方法

    公开(公告)号:CN103729637B

    公开(公告)日:2017-01-11

    申请号:CN201310753640.5

    申请日:2013-12-31

    Abstract: 本发明公开的基于容积卡尔曼滤波的扩展目标概率假设密度滤波方法,具体按照以下步骤实施:步骤1、预先设定k-1时刻后验强度的高斯混合形式,得到第i个高斯项的均值和协方差;步骤2、对步骤1得到的第i个高斯项的权值、均值和协方差进行一步预测:步骤3、根据步骤2得到的预测结果进行量测更新,得到k时刻各高斯分量的估计值。本发明的基于容积卡尔曼滤波的扩展目标概率假设密度滤波方法,解决非线性系统下的扩展目标跟踪问题和非线性函数的雅克比矩阵不存在或难以求解时的扩展目标跟踪问题,为解决非线性条件下的扩展目标跟踪提出了一种新的实现途径。

    多证据源冲突的组合度量方法

    公开(公告)号:CN103020450B

    公开(公告)日:2016-04-20

    申请号:CN201210536343.0

    申请日:2012-12-12

    Abstract: 本发明公开的多证据源冲突的组合度量方法,具体按照以下步骤实施:步骤1、选择并分析四种常用的冲突度量方法;步骤2、选取三种常用的冲突度量方法两两结合构成本发明的多证据源冲突的组合度量方法,对证据源进行分析,根据冲突度量方法和证据源的特性选择相应的组合冲突度量方法;步骤3、采用本发明的多证据源冲突的组合度量方法中的三种组合冲突度量方法计算出证据源间的冲突值,并对冲突值进行分析,根据冲突值的分析结果选择适合的证据理论。本发明的方法可以提高判断证据源间冲突程度的有效性和证据理论选择的准确性,本发明目的在于克服具有不同特性的证据源,利用现有的冲突度量方法得到的冲突值存在效果不理想的情形。

    多传感器存在监测区域部分重叠的扩展目标跟踪方法

    公开(公告)号:CN104778358A

    公开(公告)日:2015-07-15

    申请号:CN201510166517.2

    申请日:2015-04-09

    Abstract: 本发明公开的多传感器存在监测区域部分重叠的扩展目标跟踪方法,对当前量测集进行滤波时使用的高斯分量为当前时刻预测的高斯分量,而非任一传感器量测更新后的高斯分量,使得各个传感器滤波更新后的结果相互独立;当各个传感器量测均参与滤波更新后,对所有传感器的结果高斯项进行判断:若该传感器估计的高斯项中表示目标位置的分量落在重叠区域,则将其权值进行求平均值优化处理;最后,将所有传感器估计出的高斯项的权值、均值以及协方差合并为一个高斯分量作为下一时刻的预测高斯分量。本发明多传感器存在监测区域部分重叠的扩展目标跟踪方法消除了重叠区域带来的目标数目过估计问题以及为未重叠区域带来的量测信息严重丢失问题。

    采用手臂区域保留策略的虚拟试穿方法

    公开(公告)号:CN117689437A

    公开(公告)日:2024-03-12

    申请号:CN202311333652.2

    申请日:2023-10-16

    Abstract: 本发明公开采用手臂区域保留策略的虚拟试穿方法,具体按照以下步骤实施:步骤一、分别对人体图像I和服装图像C进行预处理,得到服装无关的人体表示hp和服装图像C对应的掩码M,获取预处理结果;步骤二、构建一种采用手臂区域保留策略的虚拟试穿网络,构建用于网络训练的损失函数;步骤三、使用配对图像训练集图像和其经过步骤一得到的预处理结果来训练采用手臂区域保留策略的虚拟试穿网络,得到采用手臂区域保留策略的虚拟试穿网络权重;步骤四、基于采用手臂区域保留策略的虚拟试穿网络及网络权重生成逼真的试穿图像,实现在图像中将服装迁移至人体对应区域的虚拟试穿效果。该方法解决应用现有方法难以获取具备真实感的试穿结果的问题。

    基于特征增强和多粒度匹配的文本引导服装图像检索方法

    公开(公告)号:CN117648454A

    公开(公告)日:2024-03-05

    申请号:CN202311435062.0

    申请日:2023-11-01

    Abstract: 本发明公开基于特征增强和多粒度匹配的文本引导的服装图像检索方法,具体步骤如下:步骤一、先获取公开的服装数据集,对服装数据集中的图像做预处理;步骤二、构建基于特征增强和多粒度匹配的文本引导的服装图像检索模型,并设计多粒度匹配的损失函数;步骤三、构建完基于特征增强和多粒度匹配的文本引导的服装图像检索模型后,使用多粒度匹配的损失函数Ltotal训练检索模型,训练完成后,保存最终得到的权重;步骤四、先构建检索所需图像库,对图像库进行预处理,使用步骤三训练得到的训练完的服装图像检索模型,实现文本引导的服装图像检索功能。该方法解决了现有方法在面对模糊文本条件时生成的检索结果精度低且特征相对单调的问题。

    基于服装区域对齐和风格保持调制的真实性虚拟试穿方法

    公开(公告)号:CN116777738A

    公开(公告)日:2023-09-19

    申请号:CN202310901979.9

    申请日:2023-07-21

    Abstract: 本发明公开基于服装区域对齐和风格保持调制的真实性虚拟试穿方法:对人体图像I和服装图像C进行预处理,得到人体分割图S、掩码M、人体图像I中人物的姿态图P、密集姿态Pd,构建与服装无关的人体表示,得到预处理结果;构建一种基于服装区域对齐和风格保持调制虚拟试穿模型,设计损失函数;使用配对图像训练集和其经步骤一处理的得到的预处理结果对基于服装区域对齐和风格保持调制虚拟试穿模型进行训练,通过反向传播不断优化模型权重;将试穿者的人体图像和试穿者要试穿的服装图像经步骤一得到预处理结果,将得到的预处理结果输入基于服装区域对齐和风格保持调制虚拟试穿模型。解决了应用现有方法生成试穿图片时,所得结果的特征模糊、真实感差的问题。

Patent Agency Ranking