-
公开(公告)号:CN109636727B
公开(公告)日:2022-11-15
申请号:CN201811544125.5
申请日:2018-12-17
Applicant: 辽宁工程技术大学
IPC: G06T3/40
Abstract: 本发明公开了一种超分辨率重建影像空间分辨率评价方法,首先对原始影像进行超分辨率重建处理,对比原始影像与超分重建后的影像,找到原始影像上不清晰但是超分影像上变清晰的地物,选取超分影像上有明显距离间隔的地物,量测Google地图上高清影像上对应特征地物的距离间隔,计算超分影像上相应距离间隔所占的像元个数,利用超分影像分辨率计算公式求得超分影像的分辨率数值。本发明对原始影像进行超分辨率重建,对超分影像通过一系列的量测、计算,求得超分辨率重建后的影像的分辨率大小,通过对超分前后两张影像的分辨率进行分析,本发明方法的处理过程没有近似,且主要是对超分重建后的影像进行空间分辨率求解,可有效、直观的得到分辨率的数值。
-
公开(公告)号:CN109509217B
公开(公告)日:2022-11-15
申请号:CN201811313587.6
申请日:2018-11-06
Applicant: 辽宁工程技术大学
Abstract: 本发明提供了一种运动结构相似性的低秩序列影像匹配点粗差检测方法,包括对初始匹配点计算序列影像间匹配点运动结构相似度矩阵;进行低秩和稀疏分解建模。采用运动结构的几何一致性条件,实现了稳健的匹配点(稀疏或密集)粗差检测,成果既可应用到常规的灰度匹配中,也可以应用于特征跟踪匹配中,并支持多视匹配结果的粗差检测。本发明的方法以运动结构相似性为正确匹配约束条件,构建序列影像匹配点的低秩和稀疏优化模型,完成错误匹配点的检测。本发明方法的处理过程没有近似,并且可在多视影像特征点匹配之后或匹配点跟踪过程中使用,可有效提高正确匹配率。
-
公开(公告)号:CN113487491A
公开(公告)日:2021-10-08
申请号:CN202110574813.1
申请日:2021-05-26
Applicant: 辽宁工程技术大学
Abstract: 本发明提供了一种基于稀疏性与非局部均值自相似性的图像复原方法,属于图像复原技术领域。该方法首先根据输入的初始低分辨率图像利用比值稀疏约束算法得到假设的清晰图像;再根据初始低分辨率图像和假设清晰图像计算点扩散函数;然后根据初始清晰图像和点扩散函数估计组稀疏重建块,根据初始清晰图像估计非局部均值自相似特征重建块;最后根据组稀疏重建块和非局部均值自相似性特征重建块得到最终的清晰图像。该方法使用图像的非局部均值自相似性特征、组稀疏特征、点扩散函数相结合的策略,有效改善图像细节信息,可实现减少图像模糊和噪声、提升边缘细节信息的效果,达到提高图像质量的目的。
-
公开(公告)号:CN109658361A
公开(公告)日:2019-04-19
申请号:CN201811612588.0
申请日:2018-12-27
Applicant: 辽宁工程技术大学
IPC: G06T5/00
Abstract: 本发明提供了一种顾及运动估计误差的运动场景超分辨率重建方法,包括运动估计及高分影像初始化、超分辨率重建模型构建、计算自适应阀值参数、计算模型参数、计算高分辨率影像、输出高分辨率影像。本发明首先从正则化超分辨率重建模型出发,研究运动估计误差存在的前提下,引入稳健估计,自适应的减少含有运动估计误差的低分辨率影像在重建过程中的贡献量,从而削弱运动估计误差对重建结果的影响;从稳健估计的角度分析了基于L1范数和L2范数的保真项对于运动估计误差的鲁棒性,提出基于稳健估计的双边滤波超分辨率重建方法,实现了在运动估计误差存在的情况下稳健的超分辨率重建,并实验验证了方法的有效性,因此可实现运动场景中高精度的影像。
-
公开(公告)号:CN109636727A
公开(公告)日:2019-04-16
申请号:CN201811544125.5
申请日:2018-12-17
Applicant: 辽宁工程技术大学
IPC: G06T3/40
CPC classification number: G06T3/4053 , G06T2207/10016 , G06T2207/10032 , G06T2207/30168
Abstract: 本发明公开了一种超分辨率重建影像空间分辨率评价方法,首先对原始影像进行超分辨率重建处理,对比原始影像与超分重建后的影像,找到原始影像上不清晰但是超分影像上变清晰的地物,选取超分影像上有明显距离间隔的地物,量测Google地图上高清影像上对应特征地物的距离间隔,计算超分影像上相应距离间隔所占的像元个数,利用超分影像分辨率计算公式求得超分影像的分辨率数值。本发明对原始影像进行超分辨率重建,对超分影像通过一系列的量测、计算,求得超分辨率重建后的影像的分辨率大小,通过对超分前后两张影像的分辨率进行分析,本发明方法的处理过程没有近似,且主要是对超分重建后的影像进行空间分辨率求解,可有效、直观的得到分辨率的数值。
-
公开(公告)号:CN108109139B
公开(公告)日:2022-01-14
申请号:CN201711362017.1
申请日:2017-12-18
Applicant: 辽宁工程技术大学
Abstract: 本发明提出一种基于灰度体元模型的机载LIDAR三维建筑物检测方法,该方法为:读取原始机载LIDAR点云数据,形成原始机载LIDAR点云数据集;将原始机载LIDAR点云数据规则化为灰度3D体元数据集;对灰度3D体元数据集进行建筑物屋顶体元检测;基于缓冲区分析,对灰度3D体元数据集进行建筑物立面体元检测。该方法综合利用了LIDAR数据的几何和辐射信息并很好地利用了3D体元数据中各体元间隐含的邻域关系,有助于基于体元理论的机载LIDAR点云数据处理及应用的发展。
-
公开(公告)号:CN113671505A
公开(公告)日:2021-11-19
申请号:CN202111047318.1
申请日:2021-09-08
Applicant: 辽宁工程技术大学 , 辽宁凯源空间信息科技有限公司
Abstract: 本发明公开了一种基于系统几何误差补偿的合成孔径雷达立体定位方法。合成孔径雷达(Synthetic Aperture Radar,SAR)立体定位技术以其快速、全天时、全天候、高精度的突出优势成为获取空间地理信息的重要技术之一。针对SAR影像因传感器误差、平台星历数据误差、目标测距误差导致的定位误差较大这一问题,本发明从SAR卫星误差源角度出发,通过定标场角反射器标定SAR卫星的系统几何误差,基于几何定标参数构建试验区SAR影像的严密成像几何模型、SAR影像的有理函数模型,采用基于RPC模型的立体定位方法实现无控制点立体SAR定位精度提升。本发明只需在一定时期内对某颗SAR卫星进行几何标定,即可实现试验区无控制点高精度立体定位,对于境外定位、全球范围测图具有重要的意义。
-
公开(公告)号:CN110298801A
公开(公告)日:2019-10-01
申请号:CN201910570458.3
申请日:2019-06-27
Applicant: 辽宁工程技术大学
Abstract: 本发明公开了一种基于夜晚APSF估计的图像复原方法,步骤为:输入夜晚拍摄的夜光遥感图像;计算出大气光学厚度;根据天气状况估计出前向散射系数;输入光源强度;将步骤S2至S4得到的T、q、I0带入到大气点扩散函数模型中解算;估计出图像的APSF值;利用比值型稀疏约束模型进行图像复原;输出夜晚拍摄的夜光遥感复原图像;对复原前后夜光遥感图像采用峰值信噪比PSNR和能量梯度两个指标进行质量评价。本发明方法的处理过程没有近似,且主要是对夜晚拍摄的夜光遥感图像进行APSF估计和图像复原处理,通过对复原前后图像进行质量评价,可有效、直观的证明本方法的有效性。
-
公开(公告)号:CN113487491B
公开(公告)日:2024-04-26
申请号:CN202110574813.1
申请日:2021-05-26
Applicant: 辽宁工程技术大学
Abstract: 本发明提供了一种基于稀疏性与非局部均值自相似性的图像复原方法,属于图像复原技术领域。该方法首先根据输入的初始低分辨率图像利用比值稀疏约束算法得到假设的清晰图像;再根据初始低分辨率图像和假设清晰图像计算点扩散函数;然后根据初始清晰图像和点扩散函数估计组稀疏重建块,根据初始清晰图像估计非局部均值自相似特征重建块;最后根据组稀疏重建块和非局部均值自相似性特征重建块得到最终的清晰图像。该方法使用图像的非局部均值自相似性特征、组稀疏特征、点扩散函数相结合的策略,有效改善图像细节信息,可实现减少图像模糊和噪声、提升边缘细节信息的效果,达到提高图像质量的目的。
-
公开(公告)号:CN113936022A
公开(公告)日:2022-01-14
申请号:CN202111207500.9
申请日:2021-10-18
Applicant: 辽宁工程技术大学
Abstract: 本发明公开了一种基于多模态特征与极化注意力的图像去雾方法。该方法包括数据集制作、网络搭建、参数设置、模型训练、去雾验证和模型输出。基于单一模态的特征进行图像去雾,可能会导致丢失图像部分退化信息,使得去雾效果不好。针对这些问题,本发明提供了一种结合多模态特征图像去雾的方法,利用多模态融合模块在不添加额外噪声的情况下融合两种模态的信息,并通过极化自注意力机制有效避免了信息的缩减,最后通过特征增强模块对图像的边缘和纹理信息进行提取,实验结果表明,与现有去雾方法相比,提出的去雾方法在合成有雾图像数据集上有较为理想的效果,有效解决了去雾不彻底、色彩退化的问题,为后续高级图像任务提供了支持。
-
-
-
-
-
-
-
-
-