-
公开(公告)号:CN114138946A
公开(公告)日:2022-03-04
申请号:CN202010811525.9
申请日:2020-08-13
Applicant: 复旦大学
IPC: G06F16/332 , G06F16/35 , G06F16/583 , G06V10/774 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明提供的基于模块路由网络的视觉问答方法,用于解决根据模块路由网络模型对自然语言问题文本以及输入问题照片处理并生成问题答案,其特征在于,模块路由网络模型具有文本网络、路由网络以及包含视觉网络,包括以下步骤:步骤1,将自然语言问题文本输入文本网络提取问题特征;步骤2,根据由路由路径至少基于问题特征生成的路由路径激活视觉网络中相应的模块成为激活模块,并将问题照片输入视觉网络由激活模块从问题照片中提取图像特征形成相应的最终特征;步骤3,将最终特征输入回答器生成问题答案。则本发明的方法在多个层次中将文本和视觉两个模态融合,回答复杂问题时无需专家知识和监督信息,能广泛应用于需多个模态相结合的情况。
-
公开(公告)号:CN113591527A
公开(公告)日:2021-11-02
申请号:CN202110049271.6
申请日:2021-01-14
Applicant: 腾讯科技(深圳)有限公司 , 复旦大学
Abstract: 本申请涉及计算机技术领域,尤其涉及人工智能技术领域,提供一种对象轨迹识别方法、装置、电子设备和存储介质,用以提高视频中对象重识别的准确率。其中,方法包括:对待识别视频进行镜头分割,获得多个视频片段,每个视频片段对应一个镜头;对获得的各视频片段进行对象检测,分别确定在各视频片段中检测到的各对象的检测框;将同一对象在同一视频片段不同视频帧中的各检测框连接,分别获得各视频片段中,各对象各自的追踪轨迹;针对各对象,将同一对象在不同视频片段内的追踪轨迹进行连接,获得待识别视频中各对象的运动轨迹。本申请结合视频的特性,将对象轨迹识别过程划分为对象检测,轨迹追踪和重识别这三个部分,提高了对象重识别的准确率。
-
公开(公告)号:CN111736999A
公开(公告)日:2020-10-02
申请号:CN202010570373.8
申请日:2020-06-19
Applicant: 复旦大学 , 上海新氦类脑智能科技有限公司
Abstract: 本发明提供了一种降低通信成本的神经网络端云协同训练系统,包括:端侧设备,包括端侧训练模块以及与端侧训练模块通信连接的端侧通信模块;云侧设备,包括与端侧通信模块通信连接的云侧通信模块以及与云侧通信模块通信连接的云侧训练模块,其中,端侧训练模块中包含端侧输入接口、端侧网络层以及端侧输出接口,云侧训练模块中包含云侧输入接口、云侧网络层以及云侧输出接口,端侧训练模块与云侧训模块构成完整的神经网络,神经网络的重量级部分放置在云侧训练模块中,神经网络的轻量级部分放置在端侧训练模块中,端侧通信模块与云侧通信模块中均包含一个编码器和一个解码器。
-
公开(公告)号:CN1700238A
公开(公告)日:2005-11-23
申请号:CN200510027078.3
申请日:2005-06-23
Applicant: 复旦大学
Abstract: 本发明属于数字图像处理技术领域,具体为一种在彩色数字图像与视频中分割出人体皮肤区域的方法。该发明包含三个主要算法:增量式高斯混合模型算法、基于边缘的区域增长算法、边界势场算法。本发明方法是从“一般肤色模型”出发,利用区域增长得到的特定图像中肤色样本对肤色模型进行循环修正,得到“专用肤色模型”,最后在用专用肤色模型提取出的皮肤区域图上建立“边界势场”填补皮肤区域中的空隙。通过该方法分割得到的皮肤区域较之于其它方法精确很多,而且有很高的完整性和较强的语义性,这对于不健康媒体内容的检测与过滤有非常重要的意义,在互联网媒体内容过滤领域有广泛的应用价值。
-
公开(公告)号:CN117746172A
公开(公告)日:2024-03-22
申请号:CN202211103020.2
申请日:2022-09-09
Applicant: 复旦大学
IPC: G06V10/774 , G06N20/00
Abstract: 本发明提供一种基于域差异感知蒸馏的异构模型聚合方法及系统,由于在服务器端采用知识蒸馏算法进行模型聚合,并且客户端本地也支持采用知识蒸馏进行模型训练,因此,可以屏蔽模型结构的差异给联合学习带来的影响;由于在服务器端采用了基于域差异感知的蒸馏算法,可以自适应地为不同教师模型赋予不同的权重,因此,可以缓解不同客户端以及服务器的数据集之间的差异给模型聚合带来的影响。另外,由于本发明支持各种形式的模型异构,即服务器与客户端模型异构、不同客户端之间的模型异构,能够适应更多真实应用场景,更具有实际应用价值。
-
公开(公告)号:CN117668532A
公开(公告)日:2024-03-08
申请号:CN202211008216.3
申请日:2022-08-22
Applicant: 复旦大学 , 上海新氦类脑智能科技有限公司
IPC: G06F18/214 , G06N20/00
Abstract: 本发明提供一种基于投影约束模型聚合的隐私保护端云联合机器学习方法,采用联邦学习通过服务器对客户端提供的模型进行聚合,其特征在于,包括步骤:步骤1,采集训练数据获取客户端模型,利用训练好的客户端模型抽取客户端本地数据的中间层特征,以此计算训练好的模型每一层的参数所对应的投影矩阵,使得客户端模型不遗忘知识;步骤2,客户端将训练好的模型的参数和对应的投影矩阵发送给服务器;步骤3,服务器根据收到的模型参数和投影矩阵进行模型聚合,基于多目标优化策略,获取包含不同客户端知识的最优聚合模型,并将该最优聚合模型发送给客户端;步骤4,重复步骤1至步骤3,通过少量轮次通信,从而获取适用于所有客户端数据的全局模型。
-
公开(公告)号:CN116924899A
公开(公告)日:2023-10-24
申请号:CN202310910073.3
申请日:2023-07-24
Applicant: 复旦大学
IPC: C07C45/64 , C12P7/26 , C07C49/24 , C07C45/74 , C07C49/255
Abstract: 本发明提供了一种天然等同覆盆子酮的合成方法,属于药物合成领域。本发明以天然大茴香醛和天然丙酮为初始原料,经碱性树脂催化Claisen‑Schmidt缩合、酶催化还原和乙硫醇钠脱甲基三步连续化反应得到最终的天然等同物覆盆子酮。本发明的制备方法安全、清洁,产率稳定,可达85%左右,为工业连续化生产提供了依据。本发明的制备方法既符合清洁化生产要求,又凭借连续化工艺节约了人力成本,适合大规模工业生产。
-
公开(公告)号:CN115813650A
公开(公告)日:2023-03-21
申请号:CN202211562249.2
申请日:2022-12-07
Applicant: 复旦大学附属妇产科医院
IPC: A61F6/18
Abstract: 本发明涉及医疗器械技术领域,具体涉及一种妇产科宫内取环器,包括:宫颈探入机构和阴道探入机构,所述宫颈探入机构还具备宫颈探入管和顶杆,所述顶杆活动插接在所述宫颈探入管内部。本发明通过利用顶杆顶住宫颈探入管端部的探入橡胶套,将宫颈探入管探入子宫内部,再利用金属钩从宫颈探入管内部穿过探入橡胶套伸进子宫内,使用金属钩将节孕环拉至宫颈探入管内,再将宫颈探入管整体拉出,在此过程中由于节孕环是在宫颈探入管内部被拉出,因此其不会损伤宫颈内壁,且由于探入橡胶套材质柔软,宫颈探入管外壁光滑,也都不会损伤宫颈内壁,因此能够安全的将节孕环取出,避免损伤宫颈黏膜,保障了取环过程中女性的安全健康。
-
公开(公告)号:CN115272782A
公开(公告)日:2022-11-01
申请号:CN202111613040.X
申请日:2021-12-27
Applicant: 复旦大学
Abstract: 本发明提供一种辅助无人系统视觉决策的解释序列产生方法,为无人系统的监督任务提供层次化的决策依据,赋予系统决策透明性,方便开发者持续优化模型,其特征在于,包括以下步骤:步骤S1,将图像数据输入至预训练好的卷积神经网络模型获取最后一层的特征图张量以及每一层梯度信息;步骤S2,基于特征图张量和每一层梯度信息,采用人工智能可解释方法,获取决策显著图集合;步骤S3,基于决策显著图集合获取激活的输入数据图像集合;步骤S4,将激活的输入数据图像集合输入至预训练好的卷积神经网络模型,采用全局工作空间映射获取各显著图组对应的权重系数;步骤S5,基于各显著图组对应的权重系数合成显著图,并基于权重系数的预定顺序得到决策序列。
-
公开(公告)号:CN103193782B
公开(公告)日:2015-10-28
申请号:CN201210169784.1
申请日:2012-05-28
Applicant: 复旦大学附属金山医院
IPC: C07D487/22 , A61K41/00 , A61P35/00 , A61P13/10
Abstract: 本发明涉及光敏剂叶绿酸钠盐衍生物及其制备方法和在制备治疗肿瘤药物中的新用途,尤其是在制备光动力学治疗膀胱癌肿瘤光敏剂药物中的用途。所述的光敏剂叶绿酸钠盐衍生物包括如下结构式的叶绿酸e4钠盐、e6钠盐和f钠盐化合物,本发明的叶绿酸钠盐经体外对人膀胱癌细胞的杀伤作用试验,结果显示,其对肿瘤细胞有明显的杀伤效应,尤其治疗膀胱原位癌和难治性、反复复发性表浅性膀胱肿瘤时,疗效好,毒性极小,安全性大,治疗时不需避光,有其独特的优势,为临床应用提供了有意义的实验依据。
-
-
-
-
-
-
-
-
-