-
公开(公告)号:CN116704198A
公开(公告)日:2023-09-05
申请号:CN202210174858.4
申请日:2022-02-24
Applicant: 复旦大学
IPC: G06V10/40 , G06V10/774 , G06V10/82 , G06N5/02 , G06N5/04 , G06N3/0464 , G06N3/042 , G06N3/045 , G06N3/08
Abstract: 本发明公开了一种基于多模态信息引导的知识增强视觉问答方法,具有这样的特征,包括以下步骤:步骤1,构建图像的全局视觉模态特征并提取视觉模态信息;步骤2,基于所述视觉模态信息的问题实体进行注意力操作,提取需要引入外部知识的所述问题实体,并对提取的所述问题进行知识引入,得到增强问题;步骤3,将增强问题的编码为推理指令,以图卷积网络的方法在图像生成的场景图中以推理指令为引导进行推理,最后获取相应的答案。
-
公开(公告)号:CN111275172B
公开(公告)日:2023-09-01
申请号:CN202010068826.7
申请日:2020-01-21
Applicant: 复旦大学
Inventor: 张文强
IPC: G06N3/0499 , G06N3/0464 , G06N3/084
Abstract: 本发明涉及一种基于搜索空间优化的前馈神经网络结构搜索方法,包括以下步骤:S1:按照搜索空间的定义随机生成设定数量的搜索空间并转化为离散编码,构建搜索空间初始种群;S2:利用超网络对初始种群中的所有搜索空间进行性能评估;S3:根据性能评估结果对搜索空间进行优化,输出最优搜索空间;S4:对应搜索算法在最优搜索空间中,搜索设定模型评估算法下最优的前馈神经网络结构,并利用该神经网络结构完成需求数据集下的需求任务,与现有技术相比,本发明具有提高神经网络结构搜索的效率和性能等优点。
-
公开(公告)号:CN113218435B
公开(公告)日:2023-01-17
申请号:CN202110496234.X
申请日:2021-05-07
Applicant: 复旦大学
IPC: G01D18/00
Abstract: 本发明提供一种多传感器时间同步方法,包括如下步骤:步骤1,对多传感器的时间误差进行补偿,将时间同步到相同的基准时标下,得到同一基准时标下的多传感器;步骤2,对同一基准时标下的多传感器的硬件和软件分别进行硬同步和软同步,得到硬件同步和软件同步的多传感器,即得到同步后的多传感器,其中,步骤2中,进行硬同步的方法为全局时间同步算法、本地时间同步算法以及多传感器联合外参标定算法。本发明的多传感器时间同步方法通过对因各传感器时钟精度不同形成的时间偏差进行研究,从硬件和软件两方面对时间误差进行补偿,将时间同步到统一基准时标下,实现了基于多源传感器的硬同步和软同步。
-
公开(公告)号:CN108376387B
公开(公告)日:2021-09-17
申请号:CN201810008937.1
申请日:2018-01-04
Applicant: 复旦大学
Abstract: 本发明属于计算机数字图像处理技术领域,具体为一种基于聚合膨胀卷积网络的图像去模糊方法。本发明包括构建深度神经网络:基于条件对抗生成网络,包含生成器与鉴别器,生成器结构使用堆叠的自编码器模块,自编码器模块使用自编码器结构与跳跃连接,在构建模块上使用残差模块,残差模块使用残差网络以及多路聚合膨胀卷积,鉴别器使用5层卷积神经网络;训练深度神经网络:使用公开的、真实场景下的模糊图像数据集,利用图像内容损失函数与对抗损失函数,训练前一步中构建的深度神经网络;利用训练好的网络模型对模糊图像进行去模糊处理。本发明方法能够保证去模糊效果,并快速高效地将模糊图像恢复成清晰图像,可极大地提高图像去模糊的效率。
-
公开(公告)号:CN113218435A
公开(公告)日:2021-08-06
申请号:CN202110496234.X
申请日:2021-05-07
Applicant: 复旦大学
IPC: G01D18/00
Abstract: 本发明提供一种多传感器时间同步方法,包括如下步骤:步骤1,对多传感器的时间误差进行补偿,将时间同步到相同的基准时标下,得到同一基准时标下的多传感器;步骤2,对同一基准时标下的多传感器的硬件和软件分别进行硬同步和软同步,得到硬件同步和软件同步的多传感器,即得到同步后的多传感器,其中,步骤2中,进行硬同步的方法为全局时间同步算法、本地时间同步算法以及多传感器联合外参标定算法。本发明的多传感器时间同步方法通过对因各传感器时钟精度不同形成的时间偏差进行研究,从硬件和软件两方面对时间误差进行补偿,将时间同步到统一基准时标下,实现了基于多源传感器的硬同步和软同步。
-
公开(公告)号:CN112991269A
公开(公告)日:2021-06-18
申请号:CN202110177221.6
申请日:2021-02-07
Applicant: 复旦大学
Abstract: 本发明涉及一种肺部CT图像的识别分类方法,包括以下步骤:1)获取肺部CT图像数据集并进行预处理,得到训练样本;2)利用训练样本训练二维卷积神经网络,构建分割模型,用于识别肺部CT图像多类别的感兴趣区域;3)利用分割模型识别的多类别感兴趣区域,在原肺部CT图像中裁剪出多个不同大小的三维图像块并进行分类类别标注;4)利用三维图像块及其标注训练三维多尺度融合神经网络,构建假阳识别和分类模型,用于对肺部CT图像进行分类并筛除假阳感兴趣区域;5)利用训练完成的分割模型和假阳识别分类模型对待分类的肺部CT图像进行分类和假阳筛除,与现有技术相比,本发明具有速度快且准确率高等优点。
-
公开(公告)号:CN107230219B
公开(公告)日:2021-06-04
申请号:CN201710309607.1
申请日:2017-05-04
Applicant: 复旦大学
IPC: G06T7/246
Abstract: 本发明属于计算机图像处理技术领域,具体为一种单目机器人上的目标人发现与跟随方法。本发明步骤包括:机器人同时定位和建图,运动帧与运动区域检测,在运动帧的运动区域进行视觉目标检测,视觉目标人追踪,视觉目标人跟随。本发明利用机器人移动过程中的场景变化检测来分析需要进行目标检测的区域,利用深度网络进行室内人的检测,利用视觉追踪算法对目标进行追踪,并控制机器人进行主动跟随。本发明基于对象视觉特征,结合机器人同时定位和见图过程对场景的估计,能够对室内目标人进行有效的发现和跟随。本发明能够在多样的图像和复杂的背景下,在室内场景对目标人进行有效的发现、追踪与跟随。
-
公开(公告)号:CN106650717B
公开(公告)日:2020-07-28
申请号:CN201611171659.9
申请日:2016-12-17
Applicant: 复旦大学
Abstract: 本发明属于机器视觉图像处理技术领域,具体为一种带厚度干扰的圆形物体的精确定位方法。本发明采用基于边缘点密度去除厚度噪点的方法,以消除厚度噪点对圆形物体的干扰,同时利用噪点中心位置关系解决旋转镜像问题,计算出物体旋转的方向;针对于物体中间带有突出的圆柱的情况,利用中心偏移算法计算物体旋转角的大小。具体步骤包括:基于边缘点密度提取去除厚度产生的噪点后的边缘轮廓;基于厚度噪点中心的旋转镜像处理;基于中心点偏移的目标精确定位。本发明尤其适用于在工业场景下,快速实现带厚度干扰的圆形物体的精确检测和定位。该方法有较高的定位精度、高效的处理速率以及较好的抗噪能力。
-
公开(公告)号:CN106649561B
公开(公告)日:2020-05-26
申请号:CN201610990193.9
申请日:2016-11-10
Applicant: 复旦大学
IPC: G06F16/9032 , G06Q40/00
Abstract: 本发明属于人工智能技术领域,具体为一种面向税务咨询业务的智能问答系统。该系统包括:一台安装Android操作系统终端设备,一台计算机;所述终端安装有应用软件程序,该应用软件包括语音转化模块、问题返回模块;所述计算机上安装有服务软件系统,该服务软件系统包括问题理解模块、问题检索模块;系统工作时语音转化模块将用户输出的语音数据转化为文本数据,通过问题理解模块进行语义理解,使用问题检索模块检索答案并通过问题返回模块将处理结果传输给终端用户;本发明综合使用语音识别、文本分类、相似度计算等技术,形成在专业领域不完备数据集上进行文本相似匹配的方法,可对纳税人提出问题进行深层次的语义分析,同时应对海量的用户,提供不间断的准确咨询服务,以满足税务咨询的实际需要。
-
公开(公告)号:CN109583331A
公开(公告)日:2019-04-05
申请号:CN201811356765.3
申请日:2018-11-15
Applicant: 复旦大学
CPC classification number: G06K9/00375 , G06K9/6256
Abstract: 本发明属于计算机图像处理技术领域,具体为基于深度学习的人手腕脉口位置精准定位方法。本发明的基本步骤为:对多人进行手部图片采样,并对样本图片进行处理,得到手部二值图和脉口坐标,作为深度学习模型的训练数据;接着对训练集进行监督式学习,得到泛化的深度学习模型;然后,根据拍摄到的手部图片,分别进行白平衡、转换到HSV色彩空间、Mean Shift颜色聚类、根据皮肤颜色提取二值图、对二值图进一步处理,得到手的轮廓;将处理好的二值图作为输入,放进预先训练好深度学习模型里,即得到手腕脉口点在图片上的坐标。本发明方法能以较高的精度找到人手腕的脉口位置,为机器人进行中医脉诊提供实时的视觉定位。
-
-
-
-
-
-
-
-
-