基于缺牙检测和概率扩散模型的缺牙CBCT图像牙齿生成方法

    公开(公告)号:CN118608690A

    公开(公告)日:2024-09-06

    申请号:CN202410722804.6

    申请日:2024-06-05

    Inventor: 尤天宇 俞俊 杨艳

    Abstract: 本发明公开了一种基于缺牙检测和概率扩散模型的缺牙CBCT图像牙齿生成方法。本发明采用人工智能算法对输入的CBCT图像进行缺牙区域的自动识别,确保精准定位无牙区域。随后对识别出的缺牙区域进行裁剪,运用改进的概率扩散模型进行牙齿图像生成,该模型能够生成高分辨率、形态准确的牙齿图像,有效补全缺牙区域。最后将生成的牙齿图像根据原始裁剪坐标精确移植回原图像,形成完整的CBCT图像。本发明适用于种植体植入位置的手术规划,还能作为义齿建模的参考,帮助患者更好地了解术前预期效果。本发明通过缺牙检测和概率扩散模型的协同工作,实现CBCT图像中缺牙区域的自动检测和牙齿图像的快速生成,大大减少了人为干预和手动操作,提高了工作效率和准确性。

    基于多视角特征融合的CBCT下颌神经管精细化分割方法

    公开(公告)号:CN119399117A

    公开(公告)日:2025-02-07

    申请号:CN202411373767.9

    申请日:2024-09-29

    Abstract: 本发明公开了一种基于多视角特征融合的CBCT下颌神经管精细化分割方法。本发明首先选取CBCT影像和下颌神经管标注构成数据集;将训练集切成若干个Patch得到输入数据,并编码每个Patch的位置坐标。其次,将每个Patch与其对应的位置编码送入预分割网络模型,得到预分割结果,采用三次样条插值得到下颌管中心线。最后对CBCT与下颌管中心线进行多视角特征提取,并通过3D Attention进行特征融合,并将得到的特征进行解码,最终获得下颌管的分割结果,并进行优化训练。本发明有效融合多种视角的特征信息,确保了分割结果的精确性和完整性。

    一种基于知识增强跨模态语义关联的胸片报告生成方法

    公开(公告)号:CN118553369A

    公开(公告)日:2024-08-27

    申请号:CN202410687876.1

    申请日:2024-05-30

    Abstract: 本发明公开了一种基于知识增强跨模态语义关联的胸片报告生成方法。本发明使用视觉编码器提取影像的视觉序列;通过语言编码器提取对应报告的语言序列;从医学实体知识库中抽取与胸片紧密相关的医学实体知识,通过交叉注意力网络将医学实体知识融合到视觉序列和语言序列中。最后,将知识融合后的视觉序列和语言序列交替作为文本生成解码器的提示符号,以自回归文本生成的方式解码生成含有医学主题词的报告。本发明提出含有回溯学习的训练策略,通过提取生成报告的回溯语言序列,拉近回溯语言序列和语言序列的距离,进一步增强跨模态一致性。本发明有效地通过医学先验知识和回溯学习策略增强跨模态语义关联,适用于胸片报告生成领域。

    基于视觉语言特征对比的胸部DR影像报告生成方法

    公开(公告)号:CN119069063A

    公开(公告)日:2024-12-03

    申请号:CN202411045347.8

    申请日:2024-08-01

    Abstract: 本发明公开了一种基于视觉语言特征对比的胸部DR影像报告生成方法,首先,获取含有病变及无病变实例的胸部DR影像及对应报告构成训练数据集的锚实例、正实例和负实例;然后,通过卷积神经网络提取每个实例影像的卷积序列特征,进而得到视觉编码特征;随后,将锚实例、正实例、负实例分别进行编码获取语言编码特征;进一步地,将含有病变实例与无病变实例的锚实例、正实例和负实例的视觉编码特征和语言编码特征进行对比来优化网络;最后,在测试阶段仅需将影像的视觉编码特征输入文本生成解码器就可生成报告。本发明可以有效地通过对比不同实例间的视觉特征和语言特征来增强模型对于病变的表征,从而提升病变实例报告生成的性能。

    一种基于个体差异的跨个体注视估计方法

    公开(公告)号:CN118968606A

    公开(公告)日:2024-11-15

    申请号:CN202411146510.X

    申请日:2024-08-20

    Abstract: 本发明公开了一种基于个体差异的跨人注视估计模型,包括以下步骤。首先,将视线估计数据集中的面部图像进行预处理;其次,通过神经网络模型CBSP‑Net得到三维注视向量d,根据面部图像拍摄时的相机位置将结果转换为屏幕上的二维注视点(PoG)。随后,使用SP模块计算该参与者的全部可用帧样本的预测均值和历史预测数据,进行预测偏差的矫正学习;最后使用PST模块,将参与者此次数据转换后的热力图与历史数据转换成的热力图输入,消除仿射变换的误差,得到更精确的热图数据。最后,通过SoftMax变换,得到转换后二维预测结果。本发明有效的解决了无效样本数据问题,同时,有效的结合了参与者的历史注视数据,在二维视线估计任务中获得了显著性的结果。

    一种基于视觉和空间关系融合的图注意力网络构建方法

    公开(公告)号:CN112184805B

    公开(公告)日:2024-04-09

    申请号:CN202010946723.6

    申请日:2020-09-10

    Inventor: 俞俊 杨艳

    Abstract: 本发明公开了一种基于视觉和空间关系融合的图注意力网络构建方法。本发明步骤如下:1、对输入图像中的目标对象,计算目标对象的视觉特征和绝对位置特征。利用两个特征构成输入图像所形成图中的一个双属性节点,最终形成一个图;2、计算图中每个邻节点到中心节点的空间几何相对位置特征;3、计算每个邻节点到中心节点之间的注意力权重;4、计算每个邻节点到中心节点的传递信息;5、将中心节点对应的所有邻节点到该中心节点的传递信息和对应的注意力权重相乘后求和,得到聚合后该中心节点的信息。用该信息更新视觉特征,保持绝对位置特征不变。本发明可以用于辅助各种视觉场景分析,是一个可以嵌入不同视觉任务的通用模型。

    一种基于视觉和空间关系融合的图注意力网络构建方法

    公开(公告)号:CN112184805A

    公开(公告)日:2021-01-05

    申请号:CN202010946723.6

    申请日:2020-09-10

    Inventor: 俞俊 杨艳

    Abstract: 本发明公开了一种基于视觉和空间关系融合的图注意力网络构建方法。本发明步骤如下:1、对输入图像中的目标对象,计算目标对象的视觉特征和绝对位置特征。利用两个特征构成输入图像所形成图中的一个双属性节点,最终形成一个图;2、计算图中每个邻节点到中心节点的空间几何相对位置特征;3、计算每个邻节点到中心节点之间的注意力权重;4、计算每个邻节点到中心节点的传递信息;5、将中心节点对应的所有邻节点到该中心节点的传递信息和对应的注意力权重相乘后求和,得到聚合后该中心节点的信息。用该信息更新视觉特征,保持绝对位置特征不变。本发明可以用于辅助各种视觉场景分析,是一个可以嵌入不同视觉任务的通用模型。

Patent Agency Ranking