一种使用散射核方法的锥束CT散射校正方法

    公开(公告)号:CN104166962B

    公开(公告)日:2018-06-15

    申请号:CN201410365880.2

    申请日:2014-07-29

    Abstract: 本发明公开了一种使用散射核方法的锥束CT散射校正方法,其步骤为:步骤一:测量遮挡板下的散射信号;步骤二:自适应散射核参数的计算;步骤三:估计扩散函数的参数;步骤四:通过扩散函数对图像进行散射校正;步骤五:图像遮挡区域的修复;步骤六:锥束CT的重建。本发明不需要获取模型参数的先验数据,不增加图像获取及重建的复杂度,添加的设备复杂度不高,且不需要重复扫描被测物体,能高效的进行锥束CT散射校正。

    一种基于地标识别的飞行器视觉导航方法

    公开(公告)号:CN104655135B

    公开(公告)日:2018-03-06

    申请号:CN201510084399.0

    申请日:2015-02-09

    Abstract: 本发明公开了一种基于地标识别的飞行器视觉导航方法,属于飞行器视觉导航领域。该方法具体包括:通过对成像传感器采集待处理图像序列中的地标进行识别,利用序列图像中相邻两帧图像中识别出的地标位置和飞行器的飞行参数信息解算出地标到当前帧图像对应的飞行器的距离,进而解算出飞行器在地球坐标系下的坐标信息;最后,根据解算出的飞行器在地球坐标系下的坐标信息和飞行器的规划的航迹进行航迹校正。本发明在成像制导、飞行器视觉导航等方面提供了技术支撑,该发明具有可靠性好、实用价值高等特点。

    一种基于智能博弈的交通流元胞自动机模型的实现方法

    公开(公告)号:CN107301289A

    公开(公告)日:2017-10-27

    申请号:CN201710470908.2

    申请日:2017-06-20

    Abstract: 本发明公开了一种基于智能博弈的交通流元胞自动机模型的实现方法,该方法包括如下步骤:步骤1:在模拟之前,首先设定模拟时间长度,参数λ,最大速度值vmax,并入区域的前后道路数、长度及连接方式的预设数值;步骤2:在模拟开始时,从原点距离=0的位置依照泊松分布随机生成车辆,初始速度基于泊松分布生成;步骤3:对已生成车辆判断位置坐标,确定其所在区域,根据不同的改进规则依次判断速度参数;步骤4:结合步骤3确定的速度进行位置更新和状态标志更新,依据状态标志显示和记录相关数据或图像;步骤5:判断时间是否达到仿真时间,否则返回上述步骤。本发明在高速等路况分析,交通检测,收费站设计领域提供了技术支撑,具有较强的实用价值。

    基于颜色形状提示学习的红外小目标识别方法

    公开(公告)号:CN119942094A

    公开(公告)日:2025-05-06

    申请号:CN202510423335.2

    申请日:2025-04-07

    Abstract: 本申请公开了基于颜色形状提示学习的红外小目标识别方法,包括S1、将红外小目标的图像数据集划分为训练集和测试集;S2、将训练集的图像输入至红外小目标检测网络模型的主干网络,提取含有红外小目标图像的多尺度特征;S3、提取到红外小目标图像的多尺度特征进行多尺度特征增强;S4、通过双重概率对齐DPA融合框架进行异域融合得到多尺度信息特征;S5、将多尺度信息特征送入动态检测头部DynamicHead的进行检测;检测结果由归一化Wasserstein距离NWD和自适应阈值焦点损失ATFL进行评估;S6、获取最终的红外小目标检测结果。本申请具有较好的可靠性和鲁棒性,提高了红外小目标的检测性能。

    基于高频差分空间注意力机制的全色锐化方法及系统

    公开(公告)号:CN119919313A

    公开(公告)日:2025-05-02

    申请号:CN202510398615.2

    申请日:2025-04-01

    Abstract: 本发明涉及一种基于高频差分空间注意力机制的全色锐化方法及系统,包括:将低分辨率多光谱LRMS图像建模为高分辨率多光谱HRMS图像的空间退化版本,得到光谱保真项,随后通过注意力注入模块,生成注意力注入权重图,将全色PAN图像及其低通滤波图像分别输入到差分注意力本模块中计算得到高频差分注意力图,然后根据注意力注入权重图和高频差分空间注意力图构建高频差分空间保真项,引入高分辨率多光谱HRMS图像的对数核范数,将光谱保真项与高频差分空间注意力空间保真项及张量低管秩约束项结合,搭建全色锐化算法数学模型,最后采用替代方向乘子法对数学模型进行优化求解,最终输出高分辨率多光谱HRMS图像结果。

    基于选择性双通道感知融合网络的超透镜逆向设计方法

    公开(公告)号:CN119620389A

    公开(公告)日:2025-03-14

    申请号:CN202510072808.9

    申请日:2025-01-16

    Abstract: 本发明提供一种基于选择性双通道感知融合网络的超透镜逆向设计方法,通过获取K对原始图像与对应的原始相位光谱,得到图片‑相位光谱数据集;输入到自适应差异性频率特征提取网络ADFFNet;输入选择性非共性特征交互网络SFIFNet,分别得到图像频率特征和光谱频率特征;得到图像的融合重建特征与光谱的融合重建特征;得到生成图片结果和生成光谱结果;本发明能够深层次的挖掘图像与对应光谱间的非共性频率特征并进行深层次融合,能够增加图像与对应光谱响应之间映射的准确性,能够提高图像与光谱的生成准确性和效率。

    一种基于均衡化结构纹理表征的序列红外图像目标检测方法

    公开(公告)号:CN114898117B

    公开(公告)日:2025-02-11

    申请号:CN202210574392.7

    申请日:2022-05-25

    Abstract: 一种基于均衡化结构纹理表征的序列红外图像目标检测方法,首先,利用红外图像中的小目标比背景更亮的特点,构建局部强度信息图,充分抑制中心像素值小于局部平均像素的背景杂波并锁定目标可能存在的图像块。其次,在得到可能存在小目标的图像块之后,在图像块的中心点建立极坐标系,利用局部梯度属性检测出小目标,通过实验给定的阈值,检测出小目标。最后,结合局部强度和局部梯度形成均衡化结构纹理表征,并添加了一个平衡因子来调节强度和梯度在均衡化结构纹理表征中所占比重。本方法与其他算法相比,可以更高效和精准的探测出小目标所在位置。

    一种基于学习神经网络的伪装目标检测方法及系统

    公开(公告)号:CN114842324B

    公开(公告)日:2025-01-17

    申请号:CN202210257144.X

    申请日:2022-03-16

    Abstract: 本发明公开了伪装目标检测领域的一种基于学习神经网络的伪装目标检测方法及系统,采集检测图像输入至预先训练好的目标搜索模型,获得低级到高级依次设置的多层伪装目标表征;由各层伪装目标表征中提取伪装表征分片,并输入至预先训练好的目标识别模型获得相应等级的多个伪装识别特征;将各伪装识别特征进行卷积获得伪装识别层级图像,将各伪装识别层级图像进行叠加获得伪装识别图像;本发明通过感受野网络对提取的伪装表征f进行感受野放大,通过多尺度提取伪装表征分片输入目标识别模型中,重新拼接出伪装表征,捕获全局局部的上下文细节信息,可以更好识别边缘纹理结构,从而获得更高的识别准确率。

    基于不确定性估计的多模态情感分析方法、装置及设备

    公开(公告)号:CN114999006B

    公开(公告)日:2024-11-15

    申请号:CN202210560653.X

    申请日:2022-05-20

    Inventor: 邓丽珍 徐尚 朱虎

    Abstract: 本发明提供一种基于不确定性估计的多模态情感分析方法、装置及设备,通过获取多模态情感分析数据集,进行特征提取得到对应的音频特征、视频特征和文本特征;得到表征后的音频特征、视频特征;将得到的表征后的音频特征、视频特征和文本特征分别输入各自的基于迪利克雷分布的不确定性估计模型,得到对应音频、视频和文本模态的迪利克雷分布与不确定性估计;得到情感分类结果与总体不确定性估计;得到训练后的基于迪利克雷分布的不确定性估计模型;模型输出得到的预测结果;本发明识别精度更高,具有更强的鲁棒性和更优的可解释性,且对计算资源要求低,对多模态数据进行分析耗时更短,更符合实际场景的需要。

    基于深度子空间嵌入的全色锐化方法及装置

    公开(公告)号:CN114677293B

    公开(公告)日:2024-11-15

    申请号:CN202210227879.8

    申请日:2022-03-08

    Abstract: 本发明公开了一种基于深度子空间嵌入的全色锐化方法及装置,其主要步骤概括为:步骤1:从遥感卫星数据集中获得全色图像(PAN)和多光谱图像(MS),并进行像素匹配;步骤2:对通过步骤一得到的MS数据进行子空间表征,得到子空间基;步骤3:根据步骤一得到的MS图与PAN图,将它们输入由杨俊峰博士设计的用于全色锐化的神经网络PanNet,得到一份该网络输出的高分辨率多光谱图像;步骤4:将以上步骤得到的数据输入本算法的数学模型中,根据替代方向乘数方法进行迭代,迭代计算得到高分辨率多光谱图像。提出的发明方法能够通过观测到的全色图像与多光谱图像得到噪声更少、光谱失真更少、纹理更加清晰的高分辨率多光谱图像。

Patent Agency Ranking