-
公开(公告)号:CN111506814A
公开(公告)日:2020-08-07
申请号:CN202010273754.X
申请日:2020-04-09
Applicant: 苏州大学
IPC: G06F16/9535 , G06F17/16 , G06N3/08
Abstract: 本申请公开了一种基于变分自注意力网络的序列推荐方法,该方法将变分自编码器引入自注意力网络以捕获用户的潜在偏好,一方面通过变分推断将获得的自注意力向量表示为密度,其方差可以很好地表征用户偏好的不确定性,另一方面采用自注意力网络来学习变分自编码器的推理过程和生成过程,使其可以很好地捕获长期和短期依赖,能够更好捕获用户偏好的不确定性和动态性,提升了推荐结果的准确性。此外,本申请还提供了一种基于变分自注意力网络的序列推荐装置及设备,其技术效果与上述方法的技术效果相对应。
-
公开(公告)号:CN111369324A
公开(公告)日:2020-07-03
申请号:CN202010171709.3
申请日:2020-03-12
Applicant: 苏州大学
Abstract: 本发明公开了一种目标信息确定方法,包括:对获取到的用户数据进行特征提取处理,得到特征信息;利用周期性预测通道对特征信息进行周期预测处理,得到周期性特征;利用衰减性预测通道对特征信息进行衰减预测处理,得到衰减性特征;利用周期性特征和衰减性特征对用户数据对应的多个信息进行筛选,得到目标信息;该方法利用周期性预测通道与衰减性预测通道相结合的方法,使目标信息的确定过程包括了信息周期的影响,因此可以准确地对用户数据对应的多项信息进行筛选,确定当前需要的信息,即目标信息,改善了用户的使用体验;此外,本发明还提供了一种目标信息确定装置、目标信息确定设备及计算机可读存储介质,也具有上述有益效果。
-
公开(公告)号:CN106951963B
公开(公告)日:2020-05-22
申请号:CN201710197975.1
申请日:2017-03-29
Applicant: 苏州大学
IPC: G06N5/02
Abstract: 本发明公开了一种知识精炼的方法以及装置,通过获取自动抽取的知识库内的候选知识子集;根据众包任务选择算法,从候选知识子集中选取出第一预设数量的最优知识子集,其中,众包任务选择算法为以语义约束规则为基础的算法,第一预设数量小于或等于预设众包任务数量;基于最优知识子集,发布众包任务,得到任务反馈结果;根据任务反馈结果,对知识库进行去噪操作。即基于众包平台,对自动抽取的知识库内的知识进行精炼,也即利用人工标注去除自动抽取的知识库的噪声,使得知识库内的知识质量较高。且选取出预设数量的候选知识子集实施众包任务,使得在有限的资源下最大化知识质量的提升。可见,本申请有利于提高自动抽取的知识库内的知识质量。
-
公开(公告)号:CN110119479A
公开(公告)日:2019-08-13
申请号:CN201910409277.2
申请日:2019-05-16
Applicant: 苏州大学
IPC: G06F16/9535 , G06F16/958 , G06Q10/06 , G06Q10/04 , G06Q30/02 , G06Q50/12 , G06N3/04
Abstract: 本发明公开了一种餐馆推荐方法,该方法包括:获取用户对餐馆的历史评分数据,并利用历史评分数据构建用户餐馆评分矩阵;获取各个待选餐馆的美食图片,利用评分预测模型提取美食图片的视觉特征;其中,视觉特征包括CNN特征和美学特征;利用评分预测模型将用户餐馆评分矩阵中未评分餐馆对应的视觉特征转化为预测评分,获得用户餐馆预测评分矩阵;利用用户餐馆预测评分矩阵向用户推荐感兴趣餐馆。本方法通过结合美食图像的美学特征中隐含的用户偏好和餐馆内容,可向用户推荐满足用户偏好的餐馆,使得餐馆推荐准确率更佳,可提升用户体验。本发明还公开了一种餐馆推荐装置、设备及可读存储介质,具有相应的技术效果。
-
公开(公告)号:CN108959429A
公开(公告)日:2018-12-07
申请号:CN201810595626.X
申请日:2018-06-11
Applicant: 苏州大学
IPC: G06F17/30
Abstract: 本申请公开了一种融合视觉特征端对端训练的电影推荐的方法,包括:接收输入的用户评分矩阵,并初始化用户特征矩阵及电影特征矩阵,然后结合视觉特征矩阵建立初始模型;利用初始模型进行端对端训练得到用户评分预测矩阵,根据该用户评分预测矩阵为各用户推荐电影。本申请将海报和关键帧等视觉特征的学习和推荐模型融合到一个统一的框架并进行端对端的训练,学习到的视觉特征不仅仅具有较高的表达能力和可分类能力,得到的用户评分预测矩阵能够充分反映用户对视觉特征的偏好,为用户推荐的电影也能够更加符合用户喜好。本申请同时还提供了一种融合视觉特征端对端训练的电影推荐的系统、服务器及计算机可读存储介质,具有上述有益效果。
-
公开(公告)号:CN104376112B
公开(公告)日:2018-09-14
申请号:CN201410708031.2
申请日:2014-11-27
Applicant: 苏州大学
IPC: G06F17/30
Abstract: 本发明设计了并实现了路网上的高效空间关键字检索的方法,共提出三个方法,SNE,FITG和SG‑TRee,其中SG‑Tree的方法性能最好,是本次发明的主要方法。具体如下,SNE方法通过对路网上的每条边建立对应的签名,利用Dijkstra算法,通过网络扩展的方式遍历网络,效率较低。FITG方法结合了新颖的空间索引和文本倒排索引,根据先文本后空间的剪枝原则串行执行查询过程,效率提升很大。但是依然有不足之处,因此,我们又利用了空间索引和文本索引签名技术,提出了一个混合的索引SG‑Tree,该索引通过对空间索引G‑Tree的每个结点都建立的相应的签名,这应可以高效的检查该结点是否包含符合查询的目标,可以同时从空间和文本两个维度进行剪枝,极大的提高了查询效率。
-
公开(公告)号:CN105069094B
公开(公告)日:2018-08-07
申请号:CN201510477123.9
申请日:2015-08-06
Applicant: 苏州大学
IPC: G06F17/30
Abstract: 本发明公开了种基于语义理解的空间关键字索引方法,包括:构建空间文本对象的索引结构;初始化索引结构中的优先队列;读出所述优先队列中的第个索引节点;当第个索引节点是为非叶节点时:读取索引结构,得到第个索引节点的子节点集合;按照与查询点综合距离下界距离升序的方式,将子节点集合插入所述优先队列;当第个索引节点为叶节点时:访问叶节点对应的语义层和文本层,得到语义候选空间文本对象集合和文本候选空间文本对象集合;更新文本候选空间文本对象集合的结果上界;当结果上界小于综合距离下界或所述优先队列为空时,结束查询。本发明能够根据文本的语义理解对空间关键词进行索引,使得索引的结果更加的准确。
-
公开(公告)号:CN104834679B
公开(公告)日:2018-01-19
申请号:CN201510175195.8
申请日:2015-04-14
Applicant: 苏州大学
Abstract: 本发明提供了一种行为轨迹的表示、查询方法及装置,本发明预先采用LDA主题模型学习得到每个关键字在主题空间中的概率分布,通过聚集函数生成每个查询的文本描述的主题分布,对于给定的两个文本信息,可以通过它们的高维度主题分布来度量其语义的相似性。本发明能够在语义层次度量行为轨迹和查询意图的相关性,解决了传统信息检索文本相似性度量过度依赖于“形”的缺陷,并且本发明通过主题分布能够对文本描述进行有效理解。本发明还提供了一种行为轨迹的查询方法,基于文本描述的主题分布利用主题空间层和地理空间层协同搜索机制对给定文本描述进行搜索,提高查询效率和精度,以便为用户推荐更加精确的轨迹。
-
公开(公告)号:CN103257983B
公开(公告)日:2016-06-15
申请号:CN201210330860.2
申请日:2012-09-10
Applicant: 苏州大学
IPC: G06F17/30
Abstract: 本发明在于公开了一种基于唯一性约束的Deep Web实体识别方法,方法包括两个主要步骤:首先从硬性约束角度出发,将问题归结为一个k部图聚类问题,提出了聚类算法;然后将其扩展到软性约束条件下,将实体识别问题归结为优化问题,并提出了匹配算法。本发明将记录连接和数据融合集成起来并以一种全局的方式应用它们,提出了在硬性约束下的k部图聚类问题,并将它扩展到软性约束的情况中;同时基于属性值的相似性和同一记录里属性之间的关联性做出全局性的决策,能够识别不正确的值并且将它们从一开始就和正确的值区分开来,从而获得更好的识别效果;且本发明方法对属性值进行聚类从而表现出更加细粒度的聚类效果。
-
公开(公告)号:CN103257981B
公开(公告)日:2016-04-13
申请号:CN201210191981.3
申请日:2012-06-12
Applicant: 苏州大学
IPC: G06F17/30
Abstract: 本发明在于公开了一种基于查询接口属性特征的Deep Web数据表面化方法,包括查询接口模式信息抽取;清洗查询无关的属性;清洗垃圾属性值;属性分类;组装查询;查询集合;判断是否达到一定覆盖度;若是,则该方法流程结束;若不是,判断查询集合是否为空;若是,则将数据经领域样本库提交到样本库中;若不是,则将数据经数据爬取模块和数据记录抽取模块提交到样本库中。本发明基于查询接口属性特征的数据表面化方法可以取得较高的数据表面化效率,并能够有效解决查询接口中Top-k的问题。
-
-
-
-
-
-
-
-
-