一种结合孪生网络和快速目标优化的电视跟踪方法

    公开(公告)号:CN119027693A

    公开(公告)日:2024-11-26

    申请号:CN202310590319.3

    申请日:2023-05-24

    Applicant: 南京大学

    Abstract: 一种结合孪生网络和快速目标优化的电视跟踪方法,构建一个电视跟踪模型用于跟踪拍摄,电视跟踪模型包括孪生跟踪网络和快速目标优化模块,由孪生跟踪网络根据跟踪模板和搜索区域得到初步跟踪结果,然后由快速目标优化模块自适应更新跟踪使用的跟踪模板,实现在线跟踪以及跟踪器的在线更新。本发明利用孪生网络具备的高效的特征提取能力,能够充分提取目标和搜索区域的特征,通过相似度计算得出初步的跟踪结果,同时采用快速目标优化模块,有效解决了电视跟踪中目标运动轨迹复杂导致的跟踪鲁棒性较低的问题。

    一种基于内容的网页笔记存储、匹配和还原的方法和装置

    公开(公告)号:CN107203748A

    公开(公告)日:2017-09-26

    申请号:CN201710350594.2

    申请日:2017-05-18

    Applicant: 南京大学

    Abstract: 本发明公开了一种基于内容的网页笔记存储、匹配和还原的方法和装置。其中,方法步骤如下:首先获取用户在网页浏览页面上输入的笔划,将笔划组合成笔划组,计算笔划组所对应的网页元素。然后按网页地址存储笔记信息。当显示网页时,根据网页地址检索查找对应的笔记信息,将找到的笔记信息中各个笔划组所对应的网页元素与当前网页中的网页元素进行匹配;最后根据匹配的结果从所找到的笔记信息中提取相应的笔划组进行还原。本发明方法之下,当网页内容发生变化时,只要笔记所对应的内容未发生变化,即可再现笔记,由此无视其他网页内容的变化。

    一种基于显著性融合与传播的显著物体检测方法

    公开(公告)号:CN106373162A

    公开(公告)日:2017-02-01

    申请号:CN201510435772.2

    申请日:2015-07-22

    Applicant: 南京大学

    Abstract: 一种基于显著性融合与传播的显著物体检测方法,针对RGB-D图像,首先分别利用图像的颜色特征和空间特征进行显著物体检测,然后通过融合二者的结果得到一个高准确率的显著性图,最后通过一种基于块的显著性传播方法来扩大显著区域和提高显著物体的完整性。本发明充分发掘了RGB-D图像的彩色通道和深度通道,利用颜色特征和空间特征进行显著性检测,并采用融合-传播策略提高检测结果的准确率和召回率,能够应对在RGB-D图像中检测显著物体的任务,并能够取得比现有方法更优秀的效果。

    一种基于多数据融合的航道交通信息预测方法及应用

    公开(公告)号:CN104091470B

    公开(公告)日:2016-05-11

    申请号:CN201410337925.5

    申请日:2014-07-15

    Applicant: 南京大学

    Abstract: 本发明公开了一种基于多数据融合的航道交通信息预测方法及应用。本发明将来源于不同类型离散监测点的船舶监测信息进行融合,在统一信息格式后结合卫星定位信息,确定当前活动的船舶,并生成活动船舶的当前航行轨迹,然后根据船舶的历史航行信息和当前航行轨迹,结合船舶信息,采用朴素贝叶斯分类算法预测船舶将要到达的下一个连通监测点的概率,得到航向概率集作为船舶航向预测结果,最后根据部分船舶的卫星定位信息对航向概率集中的概率数据进行修正,从而得到修正后的船舶航向预测结果。本发明依据船舶的航向预测结果,结合船舶信息和航道信息,采用定制化的方式,完成航道交通业务信息的估算和预测。

    一种基于双路视觉Transformer的图像风格迁移方法

    公开(公告)号:CN119068100A

    公开(公告)日:2024-12-03

    申请号:CN202310646537.4

    申请日:2023-06-02

    Applicant: 南京大学

    Abstract: 一种基于双路视觉Transformer的图像风格迁移方法,对内容图像和风格图像分别配置一路视觉Transformer编码器,得到内容编码和风格编码;由Transformer风格参数提取器将风格编码表征为风格参数向量;再通过视觉Transformer图像解码器加权融合内容编码与风格编码,并基于风格参数向量预测目标风格的特征分布参数,得到风格化编码,最后解码输出生成风格化图像。本发明基于双路编码‑解码的视觉Transformer架构,既考虑了不同图像域间的编码差异,提升风格表征的准确性,又引入了风格分布度量,进一步提升风格表达能力,使图像渲染无论是色彩分布还是纹理质感均高度契合真实风格,同时能完整保留原始内容语义,避免因施加局部风格纹理而出现失真问题。

    基于双流非对称网络的显著性物体检测方法、设备及介质

    公开(公告)号:CN117523180A

    公开(公告)日:2024-02-06

    申请号:CN202311655193.X

    申请日:2023-12-05

    Applicant: 南京大学

    Abstract: 基于双流非对称网络的显著性物体检测方法、设备及介质,构建深度学习模型对输入RGB图像和热图像进行显著性物体检测,首先由由非对称骨架网络进行RGB模态和T模态的特征提取,然后将前两阶段的特征输入通道‑空间特征交互模块进行模态特征交互,再将后两阶段的特征通过自注意力增强模块进行特征加强,最后通过RGB编码器、热编码器和融合特征编码器得到显著性物体检测图像。本发明针对RGB和热红外模态在通道数量和信息密度方面存在差异的问题提出了一种新颖的非对称网络,可以实现定位包含RGB和热红外信息的图像中的显著目标,在保证模型检测效果的情况下节省了不必要的计算开销,为模型部署提供了支持,具有良好的实用性。

    一种基于显著性融合与传播的显著物体检测方法

    公开(公告)号:CN106373162B

    公开(公告)日:2019-04-16

    申请号:CN201510435772.2

    申请日:2015-07-22

    Applicant: 南京大学

    Abstract: 一种基于显著性融合与传播的显著物体检测方法,针对RGB‑D图像,首先分别利用图像的颜色特征和空间特征进行显著物体检测,然后通过融合二者的结果得到一个高准确率的显著性图,最后通过一种基于块的显著性传播方法来扩大显著区域和提高显著物体的完整性。本发明充分发掘了RGB‑D图像的彩色通道和深度通道,利用颜色特征和空间特征进行显著性检测,并采用融合‑传播策略提高检测结果的准确率和召回率,能够应对在RGB‑D图像中检测显著物体的任务,并能够取得比现有方法更优秀的效果。

    事件模型中的快速事件匹配方法

    公开(公告)号:CN1694094A

    公开(公告)日:2005-11-09

    申请号:CN200510040618.1

    申请日:2005-06-20

    Applicant: 南京大学

    Abstract: 事件模型中的快速事件匹配方法步骤如下,分为事件订购和事件匹配两大部分;事件订购:在事件匹配算法的数据结构上的事件订购处理就是事件匹配的预处理过程,当事件服务接收到新的事件订购后,需要更新谓词表、接口列表和订购列表;事件匹配:在数据结构和事件订购的预处理的基础上,只需将接收到的事件在谓词表中逐行进行匹配测试。处理订购区域与发布值的正向匹配,还处理发布区域与订购值的逆向匹配以及发布区域与订购区域的对称匹配;本发明针对分布式虚拟环境中需要动态对称事件匹配支持的要求,在现有的两类算法基础上,提出了一种改进的快速事件匹配算法,此算法综合了两类算法各自的优点,提高了匹配的速度和效率。

    一种结合窗口评分与超像素组合的物体位置预估方法

    公开(公告)号:CN106846400A

    公开(公告)日:2017-06-13

    申请号:CN201510888926.3

    申请日:2015-12-04

    Applicant: 南京大学

    Inventor: 任桐炜 贝佳 刘璟

    Abstract: 一种结合窗口评分与超像素组合的物体位置预估方法,在RGB‑D图像上先使用窗口评分初始化物体边界框,再在超像素表示的基础上确定物体边界框调整的弹性范围,最后综合利用颜色特征与深度特征,采用超像素组合方法对物体边界框进行调整,最终获得物体位置预估结果。本发明综合了两种主流的物体位置预估方法,综合利用了RGB‑D图像的颜色通道与深度通道,能够面对RGB‑D中物体位置预估的任务,取得比现有方法更好的物体位置预估效果。

Patent Agency Ranking