-
公开(公告)号:CN120047668A
公开(公告)日:2025-05-27
申请号:CN202510101168.X
申请日:2025-01-22
Applicant: 南京医科大学附属口腔医院 , 南京邮电大学
IPC: G06V10/25 , G06N3/045 , G06N3/0464 , G06V10/44 , G06V10/82
Abstract: 本发明公开一种可检测高异质性X射线头颅侧位图像关键点的多分辨率‑通道注意力网络构建方法。首先,构建由轻量化融合卷积和通道注意力机制组成的特征提取网络,减少计算复杂度并抑制非重要通道特征。再构建多分辨率渐进式特征提取子网络提取多分辨率特征,增强特征多尺度表达能力。接着构建多尺度注意力引导特征融合网络与上述子网络多点相连,使提取的多分辨率特征充分融合。构建的预测网络通过上采样将多尺度特征对齐拼接以融合不同层次信息,利用独立检测头分别处理不同层次特征,并自动输出图像中关键点位置的预测结果,再通过多层级聚合损失函数提升模型泛化能力。该发明能实现口腔临床高异质性X射线头颅侧位图像中关键点的自动检测。
-
-
公开(公告)号:CN110009678A
公开(公告)日:2019-07-12
申请号:CN201910291868.4
申请日:2019-04-11
Applicant: 南京医科大学附属口腔医院
Abstract: 本发明提供一种正畸用弓丝弯制检测方法及系统,通过将参照弓丝与弯制弓丝分别置于采集平台上,并通过弓丝光学图像采集模块分别采集参照弓丝与弯制弓丝的图像;将采集的参照弓丝与弯制弓丝的图像信息传输给数据分析模块,数据分析模块对采集的参照弓丝与弯制弓丝的图像信息分别进行量化分析,得到参照弓丝和弯制弓丝的二值分割图像,并获得参照弓丝与弯制弓丝的俯视曲线,进而建立坐标系,计算参照弓丝和弯制弓丝的俯视曲线上各参考点的位置坐标;通过均方根误差方法计算弯制弓丝的标准度。本发明具有实用范围广,检测准确度高,不依赖人员经验,适应性强,操作简单,灵活性强的优点。
-
公开(公告)号:CN119228802B
公开(公告)日:2025-02-11
申请号:CN202411754912.8
申请日:2024-12-03
Applicant: 南京邮电大学
IPC: G06T7/00 , G06V20/64 , G06V20/70 , G06V10/25 , G06V10/26 , G06V10/44 , G06V10/77 , G06V10/80 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/0455 , G06N3/084 , G06N3/048
Abstract: 本申请公开了多生牙自动检测方法、装置、存储介质及电子设备。该方法包括:获取三维图像,将三维图像进行预处理得到多个图像块;将图像块输入到训练好的两阶段深度注意力网络中进行识别,得到三维图像中包含多生牙的概率值;其中,两阶段深度注意力网络包括定位子网络和分类子网络;将图像块输入到训练好的两阶段深度注意力网络中进行识别,包括:将图像块输入到定位子网络中得到矩形定位框,将矩形定位框输入到分类子网络中得到图像块中包含多生牙的概率值。本申请能够加快多生牙的检测速度,提升分类精度。
-
公开(公告)号:CN117408908B
公开(公告)日:2024-03-15
申请号:CN202311725816.6
申请日:2023-12-15
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于深度神经网络的术前与术中CT图像自动融合方法,涉及计算机视觉预测技术领域,包括:采集脊柱微创术前和术后同一病人的三维C形臂CT图像,对图像的腰椎区域分别进行标注;根据标注的图像构建基于注意力机制的三维U型分割网络模型,利用模型从术前和术后CT图像中自动分割出腰椎区域;利用快速全局点云配准算法对术前和术后CT图像中自动分割出的腰椎区域进行配准,并获得术前CT图像和术后CT图像间的形变矩阵;通过形变矩阵将术前CT图像转换到术后CT图像的坐标空间;本发明实现源点云和目标点云的快速精确配对,能够应用于基于图像引导的脊柱微创手术系统,以提高手术前和手术后C形臂CT图像自动融合精度。
-
公开(公告)号:CN116258989A
公开(公告)日:2023-06-13
申请号:CN202310038133.7
申请日:2023-01-10
Applicant: 南京邮电大学
IPC: G06V20/40 , G06V10/764 , G06V10/82 , G06V10/774 , G06N3/0499 , G06N3/084
Abstract: 本发明公开了基于文本与视觉的时空关联型多模态情感识别方法、系统。首先将短视频样本裁剪成一定大小的图像块,使用卷积神经网络提取视觉特征,降维后输入到多层自注意力混合网络中,提取时空维度的深层视觉情感特征;随后用词向量模型将短视频中的文本对话转换为词向量序列,输入到自注意力神经网络中,提取深层文本情感特征;最后将视觉与文本深层情感特征进行拼接,添加全连接神经网络,利用分类器预测最终结果。本发明可以根据视频样本中图像在时间与空间维度的变化,高效地利用多头自注意力网络进行深层特征提取,尽可能地减少时间与空间特征融合过程中的信息损失,最后融合文本模态的情感特征,提高模态分类的准确率。
-
公开(公告)号:CN112818862B
公开(公告)日:2022-08-26
申请号:CN202110141812.8
申请日:2021-02-02
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于多源线索与混合注意力的人脸篡改检测方法与系统,该方法首先通过卷积神经网络、噪声滤波器以及高通滤波器提取多源线索特征,然后利用特征提取骨干网络进一步来提取图像特征;同时为了增加精度,在骨干网络中引入通道与空间的混合注意力机制。将骨干网络中高层级的特征图进行融合生成多尺度特征图,并在多尺度特征融合网络中利用深度超参数卷积神经网络弥补由于融合特征时压缩通道数导致的特征缺失以提升精度;最终将多尺度信息送入预测网络中,输出预测信息。本发明利用目标检测手段完成人脸篡改检测的任务,改善了高质量的篡改图像检测的精度问题。
-
公开(公告)号:CN112818862A
公开(公告)日:2021-05-18
申请号:CN202110141812.8
申请日:2021-02-02
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于多源线索与混合注意力的人脸篡改检测方法与系统,该方法首先通过卷积神经网络、噪声滤波器以及高通滤波器提取多源线索特征,然后利用特征提取骨干网络进一步来提取图像特征;同时为了增加精度,在骨干网络中引入通道与空间的混合注意力机制。将骨干网络中高层级的特征图进行融合生成多尺度特征图,并在多尺度特征融合网络中利用深度超参数卷积神经网络弥补由于融合特征时压缩通道数导致的特征缺失以提升精度;最终将多尺度信息送入预测网络中,输出预测信息。本发明利用目标检测手段完成人脸篡改检测的任务,改善了高质量的篡改图像检测的精度问题。
-
公开(公告)号:CN107424161B
公开(公告)日:2021-03-02
申请号:CN201710274710.7
申请日:2017-04-25
Applicant: 南京邮电大学
IPC: G06T7/13
Abstract: 本发明公开了一种由粗至精的室内场景图像布局估计方法,首先基于Canny边缘检测结果,设置阈值获得相应长直线段,对长直线段进行方向上的归类并估计消失点,进而生成大量布局候选项;然后,构建以VGG‑16为原型的全卷积神经网络预测信息化边界图,并将fc7层提取特征经Softmax分类器获得布局类别信息,两者融合生成全局特征进行布局候选项的粗选取;最后,建立布局估计的结构化回归模型,在提取线段、几何上下文、法向量和深度等信息的基础上,经几何积分图像形成区域级特征,实现布局候选项到特征域的映射的同时进行特征参数的学习,从而获得布局估计参数模型。该方法提高了布局估计的准确率,在室内场景的3D重建中具有重要的应用价值。
-
公开(公告)号:CN109145712A
公开(公告)日:2019-01-04
申请号:CN201810686822.8
申请日:2018-06-28
Applicant: 南京邮电大学
CPC classification number: G06K9/00744 , G06K9/00765 , G06K9/627 , G06K9/6288
Abstract: 本发明公开了一种融合文本信息的GIF短视频情感识别方法及系统,该方法首先利用3D卷积神经网络提取出GIF短视频中序列特征,同时利用卷积神经网络提取出序列中图像视觉特征;再采用卷积长短时记忆递归神经网络技术解码二者融合后的高层语义特征,计算出情感分类概率分布矩阵,将进行区间映射得到视频部分的情感得分。接着,从注释文本中的单词筛选出蕴含情感信息的词汇,采用情感打分工具计算出文本情感得分。最后,将视频情感得分与文本情感得分赋予不同的权重相加并做有效性判别,对GIF短视频进行情感分类。本发明能有效关注GIF视频中图像的情感信息,同时兼顾视频流的时序特征,并且文本信息与视频信息融合,提高了GIF视频情感分类的准确度和鲁棒性。
-
-
-
-
-
-
-
-
-