-
公开(公告)号:CN104850649A
公开(公告)日:2015-08-19
申请号:CN201510287900.3
申请日:2015-05-29
Applicant: 苏州大学张家港工业技术研究院
IPC: G06F17/30
Abstract: 本申请提供了一种在地图上进行兴趣点采样的方法及系统,该方法包括:根据路网信息对待采样区域进行预处理得到一个初始区域;搜索初始区域内的兴趣点数量;根据初始区域内的兴趣点数量判断初始区域是否为可用区域;若初始区域内的兴趣点数量小于阈值,则为可用区域,否则将初始区域分割,直至获取可用区域;根据可用区域内的兴趣点数量估算采样区域内的兴趣点数量。该方法通过先把初始的大区域分割成多个区域,然后再选取某一个区域根据路网信息进行迭代分割,直到出现一个可用区域,该预处理过程利用离线路网信息,无需在线提交查询,在很大程度上减少查询次数,实现大区域查询的高效性和准确性。
-
公开(公告)号:CN104834679A
公开(公告)日:2015-08-12
申请号:CN201510175195.8
申请日:2015-04-14
Applicant: 苏州大学
Abstract: 本发明提供了一种行为轨迹的表示、查询方法及装置,本发明预先采用LDA主题模型学习得到每个关键字在主题空间中的概率分布,通过聚集函数生成每个查询的文本描述的主题分布,对于给定的两个文本信息,可以通过它们的高维度主题分布来度量其语义的相似性。本发明能够在语义层次度量行为轨迹和查询意图的相关性,解决了传统信息检索文本相似性度量过度依赖于“形”的缺陷,并且本发明通过主题分布能够对文本描述进行有效理解。本发明还提供了一种行为轨迹的查询方法,基于文本描述的主题分布利用主题空间层和地理空间层协同搜索机制对给定文本描述进行搜索,提高查询效率和精度,以便为用户推荐更加精确的轨迹。
-
公开(公告)号:CN103927394A
公开(公告)日:2014-07-16
申请号:CN201410184086.8
申请日:2014-05-04
Applicant: 苏州大学
CPC classification number: G06N99/005 , G06K9/6269
Abstract: 本申请公开了一种基于SVM的多标签主动学习分类方法及系统,所述方法包括:构建候选样本集;确定所述候选样本集内各样本所属的标签集;响应用户操作,将所述候选样本集及候选样本集内各样本所属的标签集进行标注,得到标注的样本;将所述标注的样本加入训练样本集进行训练,更新分类器;利用所述分类器对获取的待分类样本进行分类。所述基于SVM的多标签主动学习分类方法,通过初步确定样本所属的标签集,从而在很大程度上节约了人力成本以及人工标注的时间,从而在节省人力的基础上,还解决了多标签样本的学习分类问题。
-
公开(公告)号:CN103699678A
公开(公告)日:2014-04-02
申请号:CN201310752850.2
申请日:2013-12-31
Applicant: 苏州大学
IPC: G06F17/30
Abstract: 本发明公开一种基于多阶段分层采样的层次聚类方法和系统,该方法包括:将随机采样得到的初始样本集作为种子构建分层查询策略,并基于分层的估计方差被最小化原则,为每层查询策略分配相应的样本个数;利用分层查询策略对数据源进行分层采样,得到样本代表性较高的代表性样本集;对代表性样本集中的样本进行聚类,基于聚类所得簇的边界点对数据源进行二次采样,得到样本不确定性较高不确定性样本集;基于由初始样本集、代表性样本集及不确定性样本集构成的合集进行聚类,以估计数据源的聚类中心。可见,本发明通过多阶段分层采样保证了样本具有较高的代表性、不确定性,规避了随机采样样本代表性较差的问题,进而提高了数据源聚类的准确度。
-
公开(公告)号:CN100447793C
公开(公告)日:2008-12-31
申请号:CN200710019543.8
申请日:2007-01-10
Applicant: 苏州大学
IPC: G06F17/30
Abstract: 本发明公开了一种基于视觉特征的页面查询接口抽取方法,首先获取一个包含查询接口的页面文档;采用基于视觉的文档分割方法,对上述页面文档构建视觉块树;定位查询接口区域;利用视觉特征识别标签块;再利用视觉特征完成控件块与标签块的分组,由此确定查询接口中的控件及其对应的属性标签,实现查询接口的自动抽取。本发明可以实现查询接口的自动抽取,为进行深层网页的集成搜索提供了基础;实验证明,本发明的基于视觉特征的查询接口自动抽取方法是可行的,并且具有较高的精度;将本发明应用于深层网页的集成搜索,可以提高搜索的准确度,从而较大范围地提高人们的工作效率。
-
公开(公告)号:CN111506814B
公开(公告)日:2023-11-28
申请号:CN202010273754.X
申请日:2020-04-09
Applicant: 苏州大学
IPC: G06F16/9535 , G06F17/16 , G06N3/08
Abstract: 本申请公开了一种基于变分自注意力网络的序列推荐方法,该方法将变分自编码器引入自注意力网络以捕获用户的潜在偏好,一方面通过变分推断将获得的自注意力向量表示为密度,其方差可以很好地表征用户偏好的不确定性,另一方面采用自注意力网络来学习变分自编码器的推理过程和生成过程,使其可以很好地捕获长期和短期依赖,能够更好捕获用户偏好的不确定性和动态性,提升了推荐结果的准确性。此外,本申请还提供了一种基于变分自注意力网络的序列推荐装置及设备,其技术效果与上述方法的技术效果相对应。
-
公开(公告)号:CN116523608A
公开(公告)日:2023-08-01
申请号:CN202310801249.1
申请日:2023-07-03
Applicant: 苏州大学
IPC: G06Q30/0601 , G06N3/04 , G06N3/08 , G06N5/04
Abstract: 本发明公开了基于概率逻辑推理的物品序列推荐方法,涉及概率逻辑推理的序列推荐技术领域包括,根据用户在电子商务或音视频平台中的历史行为记录,为用户推荐相关信息;利用概率逻辑嵌入方法在逻辑空间中表示用户及对应的历史行为;使用逻辑逻辑嵌入和概率逻辑算子对用户交互历史物品进行逻辑表示,并使用逻辑推理进行推荐预测;利用经典序列推荐模型学习用户跨物品偏好的兴趣模式,结合逻辑推理构成概率逻辑序列推荐框架SR‑PLR获得最终预测。本发明提出基于概率逻辑推理的通用序列推荐框架,实现了神经网络与符号学习在序列推荐中的结合与建模。用于主流的深度序列推荐模型提升推荐模型准确度和鲁棒性。
-
公开(公告)号:CN111626827B
公开(公告)日:2023-06-13
申请号:CN202010470866.4
申请日:2020-05-28
Applicant: 苏州大学
IPC: G06Q30/0601 , G06N3/08
Abstract: 本申请公开了一种基于序列推荐模型的物品推荐方法,包括:利用用户与物品的历史交互序列基于深度神经网络训练出包括自动特征交互层、特征层面自注意力层以及物品层面自注意力层的序列推荐模型;获取目标用户信息,并将目标用户信息输入至序列推荐模型中,确定出对应的目标推荐物品。相较于现有技术中仅仅利用包括特征层面自注意力层和物品层面自注意力层的序列推荐模型进行物品推荐的方式,本方法训练出的序列推荐模型,能够进一步利用自动特征交互层学习物品的高阶交互特征,因此能够更加准确地进行物品推荐。本申请还公开了一种基于序列推荐模型的物品推荐装置、设备及计算机可读存储介质,均具有上述有益效果。
-
公开(公告)号:CN116108283A
公开(公告)日:2023-05-12
申请号:CN202310388969.X
申请日:2023-04-13
Applicant: 苏州大学
IPC: G06F16/9535 , G06N3/0455 , G06N3/0499 , G06N3/084 , G06N3/0895
Abstract: 本发明公开了一种序列推荐的不确定性感知对比学习方法包括,构建模型嵌入层;确定基本序列编码器;计算偶然不确定性感知对比学习损失,计算认知不确定性感知集成学习损失,得到模型的最终预测输出;计算主要推荐任务的损失;模型反向传播梯度更新模型参数。本方法为了减轻模型的认知不确定性,在编码器之后集成了多个独立的子网络,以捕获模型在不同表示级别的输出。此外,本方法还应用多样性正则化项来防止多个子网络的输出收敛。
-
公开(公告)号:CN110119479B
公开(公告)日:2023-05-02
申请号:CN201910409277.2
申请日:2019-05-16
Applicant: 苏州大学
IPC: G06F16/9535 , G06F16/958 , G06Q10/06 , G06Q10/04 , G06Q30/02 , G06Q50/12 , G06N3/04
Abstract: 本发明公开了一种餐馆推荐方法,该方法包括:获取用户对餐馆的历史评分数据,并利用历史评分数据构建用户餐馆评分矩阵;获取各个待选餐馆的美食图片,利用评分预测模型提取美食图片的视觉特征;其中,视觉特征包括CNN特征和美学特征;利用评分预测模型将用户餐馆评分矩阵中未评分餐馆对应的视觉特征转化为预测评分,获得用户餐馆预测评分矩阵;利用用户餐馆预测评分矩阵向用户推荐感兴趣餐馆。本方法通过结合美食图像的美学特征中隐含的用户偏好和餐馆内容,可向用户推荐满足用户偏好的餐馆,使得餐馆推荐准确率更佳,可提升用户体验。本发明还公开了一种餐馆推荐装置、设备及可读存储介质,具有相应的技术效果。
-
-
-
-
-
-
-
-
-