-
公开(公告)号:CN111966828A
公开(公告)日:2020-11-20
申请号:CN202010729459.0
申请日:2020-07-27
Applicant: 电子科技大学
IPC: G06F16/35 , G06F16/9532 , G06K9/62
Abstract: 该发明公开了一种基于文本上下文结构和属性信息叠加网络的报刊新闻分类方法,属于信息处理领域。本发明使用文本向量表征方法将不定长度的文本转化为固定长度的向量避免了文本信息的丢失和冗余;从训练数据的角度来说,采用加权随机采样,通过权重调节样本被选择的可能性,优化训练样本的构成;从特征提取的角度来说,本文不仅考虑到上下文结果信息同时也兼顾文本属性信息,优化特征提取过程。本发明不仅改进了文本特征的提取方式,还额外地将属性特征纳入特征构建的过程中。使用文本向量表征方法将不定长度的文本转化为固定长度的向量避免了文本信息的丢失和冗余,优化了文本特征的提取方式;额外添加了新闻的特征信息,丰富了特征的来源。
-
公开(公告)号:CN111210096A
公开(公告)日:2020-05-29
申请号:CN202010218247.6
申请日:2020-03-25
Applicant: 电子科技大学
Abstract: 该发明公开了一种基于高考大数据的院校录取成绩预测方法,属于数据挖掘领域。本发明提取了高考数据中影响录取成绩的重要特征:专业数、计划数以及录取级差。计划数是指当年各院校文理各科总招生人数;录取级差是指院校录取考生中最高分与最低分的差值。除此以外,基于高考志愿填报的特点,本发明还考虑到各高校之间会有竞争关系的存在,即某一高校的招生人数变化,影响到其他高校的录取情况。本发明提供的模型先使用同位分法进行预测,得到粗略预测值;再利用上述重要特征,使用集成学习模型,拟合出录取成绩变化率,与粗略预测值结合,得到初步预测值;最后利用无监督聚类模型对高校进行划分,拟合高校间的竞争关系,调整初步预测值,得到最终预测结果。
-
公开(公告)号:CN114580529B
公开(公告)日:2023-04-21
申请号:CN202210202568.6
申请日:2022-03-03
Applicant: 电子科技大学
IPC: G06F18/2431 , G06F18/25 , G06F18/2113 , G06F18/21 , A63B24/00 , A63B69/00
Abstract: 该发明公开了一种选拔和训练足球运动员的系统,属于数据处理领域。本发明收集球员的特征,根据这些特征数据对球员的各方面能力进行分类评估,得出球员的状态,找到球员需要提高的方面。在计算运动员最需要提高的项目时,不仅考虑到运动员在此项目上的表现情况,还额外考虑到此项目的相对重要性。为每个运动员寻找出最需要提高的项目是具有极大现实意义的,依此可以为每名运动员制定出一套个性化的训练方案,提高球队的整体水平。本发明可以从标签为不优秀的运动员中找出那些具有特长的运动员,依此进行强化训练或者弱项补齐可提升球队的核心竞争力;另一方面,全能型球员必然是少之又少的,通过潜力挖掘找出具有潜力的特色型球员具有很大的现实意义。
-
公开(公告)号:CN105912727B
公开(公告)日:2019-02-15
申请号:CN201610329748.5
申请日:2016-05-18
Applicant: 电子科技大学
IPC: G06F16/9535 , G06F16/9536 , G06Q50/00
Abstract: 本发明公开了一种在线社交网络标注系统中的快速推荐方法,属于个性化推荐,数据挖掘领域。解决了传统算法或片面追求高准确率而忽略计算成本,或片面追求模型简单,计算迅速而忽略准确率和个性化的问题。本发明不需迭代到收敛的粗聚类算法其本质上是快速根据用户相似度指标将用户分成簇的过程,而基于用户的协同过滤推荐算法也是根据用户之间的相似度进行推荐,所以本发明可以保证高准确率和个性化;从而在保证准确率和个性化的前提下减少了计算的时间开销;在保证推荐系统中推荐算法准确性和个性化的基础上,降低了系统时间开销,同时具有高准确性,高个性化和低系统时间开销的特点。
-
公开(公告)号:CN104463601A
公开(公告)日:2015-03-25
申请号:CN201410638173.6
申请日:2014-11-13
Applicant: 电子科技大学
IPC: G06Q30/00
Abstract: 本发明公开了一种在线社会媒体系统中检测恶意评分用户的方法。涉及一种针对评分反馈的社会媒体系统中检测恶意评分用户的方法。首先,根据用户对产品的评分进行聚类,计算归一化的用户置信度。其次,根据用户置信度计算用户评分的可靠度,得到恶意评分用户候选列表。最后,结合用户评分和产品质量的偏离程度对候选恶意评分用户排序,得到最终的恶意评分用户列表。本发明的方法在计算的准确性和效率方面具有优势,可应用于大规模在线社会媒体网站中。
-
公开(公告)号:CN114741495B
公开(公告)日:2024-10-29
申请号:CN202210204792.9
申请日:2022-03-02
Applicant: 电子科技大学长三角研究院(湖州)
IPC: G06F16/335 , G06F16/38 , G06F18/214
Abstract: 本发明提供了一种学术论文审稿人的推荐方法,涉及计算机算法领域,不依赖复杂的文本分析,无需获取完整文本信息,计算成本低,有效性和准确性高;该方法包括:S1、根据待审论文的摘要和/或关键词从数据库中获取相关领域内已发表论文以及对应作者的数据;S2、根据获取的论文数据和学者数据构建学者‑论文双层网络模型;S3、进行作者匹配实验,根据实验结果确定最优扩散参数;S4、将待审论文以及其作者并入已构建的学者‑论文双层网络模型中,并结合已确定值的最优扩散参数,采用资源扩散的方式获得各学者的资源值;S5、根据各学者的资源值生成推荐列表并推荐相应学者作为所述待审论文的审稿人。
-
公开(公告)号:CN116757218A
公开(公告)日:2023-09-15
申请号:CN202310563155.5
申请日:2023-05-18
Applicant: 电子科技大学
IPC: G06F40/30 , G06F18/24 , G06N3/0442 , G06N3/048 , G06N3/09
Abstract: 该发明公开了一种基于上下句关系预测的短文本事件共指消解方法,属于自然语言处理技术领域。本发明从问题建模角度,利用Bert包含NSP任务的特点,将事件共指消解建模成上下句关系预测任务,能构成上下句的事件对认为即存在共指关系,这也符合人类的语言习惯,在日常对话中连贯的上下句往往都是在描述同一事实;从特征提取角度来说,通过事件抽取识别出文本中如触发词、论元角色、事件类型、时态等关键信息作为分类的辅助特征,可以在一定程度上提高分类的准确度;从算法性能角度分析,相比于传统神经网络Bert预训练模型具有更小的训练代价,可以更快地收敛并达到更好的性能。
-
公开(公告)号:CN115204967A
公开(公告)日:2022-10-18
申请号:CN202210639035.4
申请日:2022-06-07
Applicant: 电子科技大学
IPC: G06Q30/06
Abstract: 该发明公开了一种融入用户长短期兴趣表征隐式反馈的推荐方法,属于机器学习领域中的推荐系统研究领域。本方法对基于矩阵分解的协同过滤方法的隐式反馈部分进行了改进,不仅考虑了用户商品二部图中用户浏览或评分商品的隐式反馈,还考虑兴趣相似用户的隐式反馈,实现快速并准确的为用户提供个性化推荐服务。本发明的通用性高,可以适用于大多数的推荐场景。本方法的方法时间复杂度相较于原方法并没有显著增长,对用户长短期兴趣偏好的表征都可以在预处理阶段完成,并且可以采用并行计算的方法对模型进行训练,计算速度较快,在海量数据的情况下也可以短时间计算出结果。
-
公开(公告)号:CN114693397A
公开(公告)日:2022-07-01
申请号:CN202210260316.9
申请日:2022-03-16
Applicant: 电子科技大学
IPC: G06Q30/06 , G06F40/126
Abstract: 该发明公开了一种基于注意力机制的多视角多模态的商品推荐方法,属于推荐算法领域。本发明将物品所在场景的多模态信息融入推荐算法中;对数据进行预处理构建了物品相关关系图和物品的描述文本信息;将这些信息输入模型中进行训练,使得模型既使用了用户‑物品的历史交互,又捕捉了物品的描述性文本信息和物品间的相似性信息。不同于其他推荐方法单纯对用户的偏好进行建模,本发明同时对用户的偏好和厌恶进行建模;对用户的历史序列通过用户平均分进行划分,得到用户的偏好序列和厌恶序列,模型对用户的偏好的厌恶分别进行建模。提升了对用户的表征能力。
-
公开(公告)号:CN118132674A
公开(公告)日:2024-06-04
申请号:CN202410258218.0
申请日:2024-03-07
Applicant: 电子科技大学
IPC: G06F16/33 , G06F16/35 , G06F40/30 , G06F40/284 , G06N3/0455 , G06N3/08
Abstract: 该发明公开了一种基于大语言模型和高效参数微调的文本信息抽取方法,属于自然语言处理技术领域。本发明利用大语言模型强大的文本理解和泛化能力,将不同的信息抽取任务建模成自然语言输入,并限制其输出空间以及输出格式,然后将模型的输出通过简单的处理形成结构化的信息;从模型训练的角度来说,通过高效参数微调方法,通过极少量参数的微调,让模型在适应信息抽取任务的同时,保留其原本的语言理解和泛化能力,相比全参数训练的方法,拥有同样甚至更好的效果,但只需要很少的计算资源和训练时间;从泛化能力的角度,由于极大程度的保留了模型的泛化能力,本方法在低资源和新标签中的表现优于以前的方法,更适合实际应用。
-
-
-
-
-
-
-
-
-