-
公开(公告)号:CN104408148A
公开(公告)日:2015-03-11
申请号:CN201410723613.8
申请日:2014-12-03
Applicant: 复旦大学
CPC classification number: G06F17/30864 , G06F17/2765 , G06K9/6256
Abstract: 本发明属于开放知识抽取技术领域,具体为一种基于通用百科网站的领域百科构建系统。该系统分为以下几个模块:百科数据爬取模块,百科数据预处理模块,相关实体搜索及排序模块和实体聚类模块。本发明的有益效果在于:领域百科的构建目前大多为手工构建,费时费力,且人工不可能发现所有相关实体,因此覆盖率低;而以本发明找出的领域相关实体为基础建立领域百科,能极大地减少领域百科的构建的人力,并大幅提升覆盖率。同时,利用本发明系统所构建出的领域百科,将极大地方便用户获取特定领域的知识,省去了繁琐地搜索及筛选过程,把“用户被动地搜索信息”变成了“系统主动地提供信息”。
-
公开(公告)号:CN103593792A
公开(公告)日:2014-02-19
申请号:CN201310565133.9
申请日:2013-11-13
Applicant: 复旦大学
IPC: G06Q30/02
Abstract: 本发明属于计算机软件技术领域,具体为一种基于中文知识图谱的个性化推荐方法与系统。本发明利用中文知识图谱中概念实体间的超链接关系度量出任意两个词条间的语义关联,并结合一种改进的显式语义分析模型(ESA)来实现由两组标签分别刻画的用户和待推荐物品之间的精准推荐。对于两组即便没有共同标签词条的标签组,本发明提出的改进ESA模型借助中文知识图谱也能度量出两者间的语义距离,即匹配程度,从而极大地拓展了基于标签描述的个性化推荐技术的应用场合,具有广泛的商业应用价值。
-
公开(公告)号:CN103488983A
公开(公告)日:2014-01-01
申请号:CN201310419348.X
申请日:2013-09-13
Applicant: 复旦大学
Abstract: 本发明属于名片识别技术领域,具体涉及一种基于知识库的名片OCR数据修正方法和系统。本发明的系统包括图像输入模块、预处理模块、OCR模块、数据修正模块、结果输出模块。本发明首先对输入名片图像进行包括倾斜校正、剪切、缩放在内的一系列图像处理,然后使用数字形态学处理技术、连通区分析技术从中提取出独立的字符串块作为子图像送入后续的OCR模块;接着,在对OCR的输出结果进行了信息结构化处理后,利用知识库的海量信息,以及文本+图像的两级修正方法、基于知识库IDF值加权的改进DTW方法等,实现对包括地址、单位机构名称以及纯数字在内的信息修正,从而在OCR的基础上,进一步提升识别准确率。
-
公开(公告)号:CN103488724A
公开(公告)日:2014-01-01
申请号:CN201310420375.9
申请日:2013-09-16
Applicant: 复旦大学
IPC: G06F17/30
Abstract: 本发明属于中文知识库应用技术领域,具体为一种面向图书的阅读领域知识图谱构建方法。该方法分为三个部分:通用知识图谱构建、领域知识图谱构建和智能阅读推荐。即:获取互联网上的知识,集成通用知识图谱;结合通用知识图谱利用迭代的方式扩展书籍相关的概念和实体,结合实体Infobox表和传统关系抽取实体关系;按照实体由长到短标注电子书籍中的核心实体,并建立实体与书籍知识图谱的链接,以实现智能知识推荐。本发明通过建立面向书籍的阅读领域知识图谱,对书籍中的实体进行解释或知识推荐,增加了知识的深度,实现了电子阅读的便捷化、智能化和人性化,具有更好的用户体验。
-
公开(公告)号:CN119338006A
公开(公告)日:2025-01-21
申请号:CN202411469124.4
申请日:2024-10-21
Applicant: 复旦大学
IPC: G06N5/04 , G06F16/3329 , G06F16/334
Abstract: 本发明提供了一种大型语言模型答案幻觉减少的方法,具有这样的特征,包括步骤S1,根据现有数据构建包含多个幻觉类别的幻觉评估数据集;步骤S2,根据幻觉评估数据集对大语言模型的隐藏层和注意力头的输出进行分析,得到大语言模型对各个幻觉类别具有异常响应的隐藏层和注意力头,以及各个幻觉类别对应的高贡献词;步骤S3,将指定问题输入大语言模型,得到该大语言模型对该指定问题的答案选择概率以及该大语言模型的中间生成数据;步骤S4,根据高贡献词、中间生成数据、答案选择概率,结合具有异常响应的隐藏层和注意力头,通过选择函数计算得到答案选择概率对应的调整后概率。总之,本方法能够减少大语言模型生成幻觉。
-
公开(公告)号:CN118689981A
公开(公告)日:2024-09-24
申请号:CN202410780036.X
申请日:2024-06-17
Applicant: 复旦大学
IPC: G06F16/332
Abstract: 本发明提供了一种大语言模型不完全信息下的问题处理能力的评测装置,具有这样的特征,包括评测实体生成模块用于根据现有的实体猜测数据,生成层次概念列表和相似实体;简单难度猜测模块用于根据实体及其对应的底层概念,得到对应的简单难度猜测结果和简单难度猜测轮数;普通难度猜测模块用于根据实体及其对应的中间层概念,得到对应的普通难度猜测结果和普通难度猜测轮数;困难难度猜测模块用于根据实体及其对应的底层概念和相似实体,得到对应的困难难度猜测结果、困难难度猜测轮数和问答记录;分析计算模块用于计算得到不完全信息下的问题处理能力结果。总之,本装置能够客观准确地评估大语言模型多个方面的不完全信息下的问题处理能力。
-
公开(公告)号:CN118468872A
公开(公告)日:2024-08-09
申请号:CN202310086891.6
申请日:2023-02-09
Applicant: 复旦大学
IPC: G06F40/295 , G06F40/126 , G06N3/047 , G06N3/048 , G06N3/08 , G06N3/0442
Abstract: 本发明提供了一种基于分层强化学习的端到端实体链接方法,具有这样的特征,包括以下步骤:步骤S1构建结果集合;步骤S2输入文本编码得到高层状态;步骤S3由高层状态生成候选指代集合;步骤S4由高层策略得到高层动作若为候选指代进入步骤S5否则进入步骤S11;步骤S5将高层动作编码获得向量;步骤S6初始化i和单词序列;步骤S7由向量和单词序列得低层状态;步骤S8由低层策略得低层动作若为单词进入步骤S9否则进入步骤S10;步骤S9低层动作放入单词序列中i加1进入步骤S7;步骤S10候选指代和单词序列放入结果集合进入步骤S2;步骤S11结果集合作为实体链接结果。总之,本方法能够更加准确地对指代链接实体。
-
公开(公告)号:CN117744626A
公开(公告)日:2024-03-22
申请号:CN202311195450.6
申请日:2023-09-17
Applicant: 复旦大学
IPC: G06F40/20 , G06F16/35 , G06N3/0455 , G06N3/08
Abstract: 本发明属于机器高阶认知技术领域,具体为机器高阶认知的预训练语言模型幽默回复能力增强方法。本发明方法包括:建立常规文本和幽默文本之间的联系,包括构建一个由若干条上文‑幽默回复组成的可解释数据集,每一个上文‑幽默回复对都有一个幽默链和幽默思维导图,展示生成幽默回复需要的知识和逻辑推理过程;评估和提高预训练语言模型的幽默回复能力,包括设计幽默情感风格分类任务和幽默改写任务,作为以多任务训练的方式辅助幽默回复;设计编码器‑解码器框架,将幽默链和幽默思维导图注入预训练语言模型中,并基于多任务学习的方式利用两个辅助任务增强预训练语言模型的幽默回复能力。本发明可大大增强预训练语言模型的幽默回复能力。
-
公开(公告)号:CN117709469A
公开(公告)日:2024-03-15
申请号:CN202311856150.8
申请日:2023-12-29
Applicant: 复旦大学
IPC: G06N5/04 , G06N3/092 , G06N3/09 , G06F16/332
Abstract: 本发明提供了一种非线性推理任务的解决方案生成方法及装置,具有这样的特征,包括提问模块用于根据指定横向谜题、历史问题‑答案序列和上一轮线索生成模块生成的线索,生成对应的问题,回答模块用于根据本轮问题生成对应的回答,并将回答与对应的问题加入历史问题‑答案序列作为下一轮历史问题‑答案序列,线索生成模块用于连续多轮对应的回答均非“是”时,生成线索作为下一轮提问模块的输入,分数计算模块用于对本轮的问题和指定横向谜题进行重叠分数计算,得到重叠分数,判断模块用于判断重叠分数是否大于预设阈值,若是,则将问题作为解决方案,若否,则将问题输入回答模块。总之,本方法能够根据问题生成较好的基于横向思维的解决方案。
-
公开(公告)号:CN117708301A
公开(公告)日:2024-03-15
申请号:CN202311856149.5
申请日:2023-12-29
Applicant: 复旦大学
IPC: G06F16/332 , G16H10/00 , G06N3/092 , G06N20/00
Abstract: 本发明提供了一种面向医疗对话的时间感知增强回复生成方法及装置,具有这样的特征,包括步骤S1,根据现有的医疗数据构建时间感知多轮对话数据集;步骤S2,根据时间感知多轮对话数据集对现有的医疗大型语言模型进行训练,得到医疗对话模型;步骤S3,对对话序列进行编码,得到编码状态表示;步骤S4,对历史对话进行编码,得到编码记忆向量;步骤S5,将编码状态表示和编码记忆向量进行结合,得到融合状态表示;步骤S6,根据时间注意力机制对融合状态表示进行增强,得到增强状态表示;步骤S7,将当前提问和增强状态表示输入医疗对话模型,得到医疗对话回复。总之,本方法能够处理与时间相关的医疗对话并生成具有时间感知的回复。
-
-
-
-
-
-
-
-
-