基于目标灰度倾向加权的Otsu目标检测方法

    公开(公告)号:CN112396061B

    公开(公告)日:2023-04-14

    申请号:CN202011342948.7

    申请日:2020-11-25

    Abstract: 本发明涉及一种基于目标灰度倾向加权的Otsu目标检测法,包括以下步骤:步骤S1:对待测图像进行灰度化处理,获得待测图像的灰度直方图;步骤S2:根据得到的待测图像的灰度直方图,确定期望阈值;步骤S3:根据期望阈值,计算前景和背景像素点出现概率及其灰度均值;步骤S4:根据期望阈值选择要更改的灰度倾向系数,若期望阈值更接近高灰度区域就选择高倾向度系数α,反之若更接近低灰度区域就选择低倾向度系数β;步骤S5:采用改进的Otsu类间方差公式进行梯度谷值加权,获得使方差最大的阈值,实现目标与背景的分离。本发明当目标与背景的对比度很低时,能够更准确地剥离目标与背景图像。

    基于对比学习的自监督图像分类方法

    公开(公告)号:CN112381116B

    公开(公告)日:2022-10-28

    申请号:CN202011134658.3

    申请日:2020-10-21

    Abstract: 本发明涉及一种基于对比学习的自监督图像分类方法,包括以下步骤:步骤S1:获取无标签数据,并进行随机增强生成不同视图;步骤S2:对视图进行特征提取,无监督对比计算损失,得到无监督分类模型C1;步骤S3:对无标签数据中部分进行人工标注,作为训练验证集;步骤S4:将C1作为预训练模型,根据训练验证集进行微调;步骤S5:提取训练验证集的特征,有监督对比计算损失,得到C2;步骤S6:根据C2对无标签数据预测标签,并筛选置信度高于预设值的数据作为训练样本;步骤S7:基于训练样本,将C2作为预训练模型,选取小网络进行训练微调,将验证输出准确率最高的作为最佳分类模型C3。本发明能够有效利用无标签数据训练泛化的图像分类模型,解决多类图像分类问题。

    一种基于深度学习的生活垃圾分类方法

    公开(公告)号:CN112364944A

    公开(公告)日:2021-02-12

    申请号:CN202011502665.4

    申请日:2020-12-18

    Abstract: 本发明涉及一种基于深度学习的生活垃圾分类方法。包括:建立生活垃圾数据集,采用数据增强方法扩充数据集;建立神经网络分类模型,使用幻象模块替换ResNet18残差单元的普通卷积,得到G‑ResNet18网络;将扩充后的数据集经过预处理操作后输入到G‑ResNet18网络进行分类训练;将待分类的生活垃圾图片经过预处理操作后输入到训练后的G‑ResNet18模型,输出分类结果;实验结果表明:G‑ResNet18网络在本实验数据集上的识别精度达到91.6%,识别精度提高了1%,网络的参数量减少了46%。本发明能在不降低网络识别精度的同时大大减少网络的参数量,可以应用于垃圾的智能分类。

    基于深度学习的osd菜单语言自动化检测方法及系统

    公开(公告)号:CN112508845A

    公开(公告)日:2021-03-16

    申请号:CN202011102734.2

    申请日:2020-10-15

    Abstract: 本发明涉及一种基于深度学习的osd菜单语言自动化检测方法,包括以下步骤:步骤S1:获取osd菜单的图像数据集;步骤S2:对图像数据集中的图像进行预处理,并通过图像增广扩充数据集;步骤S3:构建深度神经网络,并对图像数据集经行特征提取;步骤S4:根据提取的特征通过分类器分类,以实现不同界面不同拍摄环境下osd菜单文字的识别;步骤S5:利用人工设计特征,使用模板匹配的方法精选辅助训练,对分类器的分类结果进一步分类,获取osd菜单所示文字的识别结果;步骤S6:利用匹配定位算法,比照标准对照表定位出osd菜单上显示不符标准的地方。本发明可以精确高速的检索定位出菜单显示不标准的地方,为显示器生产过程中osd菜单检错提供了更好的解决方案。

    一种基于深度学习的生活垃圾分类方法

    公开(公告)号:CN112364944B

    公开(公告)日:2022-07-05

    申请号:CN202011502665.4

    申请日:2020-12-18

    Abstract: 本发明涉及一种基于深度学习的生活垃圾分类方法。包括:建立生活垃圾数据集,采用数据增强方法扩充数据集;建立神经网络分类模型,使用幻象模块替换ResNet18残差单元的普通卷积,得到G‑ResNet18网络;将扩充后的数据集经过预处理操作后输入到G‑ResNet18网络进行分类训练;将待分类的生活垃圾图片经过预处理操作后输入到训练后的G‑ResNet18模型,输出分类结果;实验结果表明:G‑ResNet18网络在本实验数据集上的识别精度达到91.6%,识别精度提高了1%,网络的参数量减少了46%。本发明能在不降低网络识别精度的同时大大减少网络的参数量,可以应用于垃圾的智能分类。

    基于目标灰度倾向加权的Otsu目标检测方法

    公开(公告)号:CN112396061A

    公开(公告)日:2021-02-23

    申请号:CN202011342948.7

    申请日:2020-11-25

    Abstract: 本发明涉及一种基于目标灰度倾向加权的Otsu目标检测法,包括以下步骤:步骤S1:对待测图像进行灰度化处理,获得待测图像的灰度直方图;步骤S2:根据得到的待测图像的灰度直方图,确定期望阈值;步骤S3:根据期望阈值,计算前景和背景像素点出现概率及其灰度均值;步骤S4:根据期望阈值选择要更改的灰度倾向系数,若期望阈值更接近高灰度区域就选择高倾向度系数α,反之若更接近低灰度区域就选择低倾向度系数β;步骤S5:采用改进的Otsu类间方差公式进行梯度谷值加权,获得使方差最大的阈值,实现目标与背景的分离。本发明当目标与背景的对比度很低时,能够更准确地剥离目标与背景图像。

    基于对比学习的自监督图像分类方法

    公开(公告)号:CN112381116A

    公开(公告)日:2021-02-19

    申请号:CN202011134658.3

    申请日:2020-10-21

    Abstract: 本发明涉及一种基于对比学习的自监督图像分类方法,包括以下步骤:步骤S1:获取无标签数据,并进行随机增强生成不同视图;步骤S2:对视图进行特征提取,无监督对比计算损失,得到无监督分类模型C1;步骤S3:对无标签数据中部分进行人工标注,作为训练验证集;步骤S4:将C1作为预训练模型,根据训练验证集进行微调;步骤S5:提取训练验证集的特征,有监督对比计算损失,得到C2;步骤S6:根据C2对无标签数据预测标签,并筛选置信度高于预设值的数据作为训练样本;步骤S7:基于训练样本,将C2作为预训练模型,选取小网络进行训练微调,将验证输出准确率最高的作为最佳分类模型C3。本发明能够有效利用无标签数据训练泛化的图像分类模型,解决多类图像分类问题。

    一种图像超分辨率电子纸显示器
    8.
    发明公开

    公开(公告)号:CN119091814A

    公开(公告)日:2024-12-06

    申请号:CN202411452163.3

    申请日:2024-10-17

    Applicant: 福州大学

    Abstract: 本发明公开了一种图像超分辨率电子纸显示器,包括:扫描引线,数据引线以及显示像素组,显示像素组用于显示低分率图像中的同一个像素点,显示像素组由多个相邻的显示像素单元组成,显示像素单元包括第一驱动电极、第二驱动电极以及原色油墨;每个显示像素单元都对应一个薄膜晶体管,各个薄膜晶体管的漏极连接有储能电容;显示像素组中的显示像素单元分为原生显示像素和插值显示像素,插值像素对应薄膜晶体管的漏极还连接至差分放大器的正输入端,差分放大器的负输入端连接至相邻且不属于同一显示像素组的薄膜晶体管的漏极,差分放大器的输出端连接至插值显示像素的第二驱动电极。本发明可以对低分率图像进行图像超分辨率,提高显示效果。

    基于最大值法的两次背光修正区域动态调光方法

    公开(公告)号:CN115240606B

    公开(公告)日:2024-10-08

    申请号:CN202210912255.X

    申请日:2022-07-30

    Applicant: 福州大学

    Abstract: 本发明提供了一种基于最大值法的两次背光修正区域动态调光方法,包括如下步骤:步骤1):获得输入图像每一个像素点的亮度值,提取输入图像像素亮度值;步骤2):按照物理背光灯珠排布进行图像虚拟分割;步骤3):获得初始背光值;步骤4):背光第一次修正;步骤5):利用倍增模糊算法模拟背光在背光腔中投射扩散过程;步骤6):将模拟投射扩散后的背光与输入图像像素亮度值进行对比求差异值,获得第二次背光修正值;步骤7):将第一次修正后的背光值进行第二次修正,获得最终图像背光值。应用本技术方案可实现提高画面对比度的同时降低背光功耗。

    一种基于特征融合的人像关键点检测方法及系统

    公开(公告)号:CN114863539B

    公开(公告)日:2024-09-24

    申请号:CN202210648008.3

    申请日:2022-06-09

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于特征融合的人像关键点检测方法,该方法包括:S1:将人像图片送入人脸检测网络进行人脸检测并裁剪,将训练数据集中的坐标信息转化为热力图信息;S2:将人像图片送入基于Transformer和Convolution特征融合的回归网络对其进行训练,回归网络为并行结构,通过Convolution捕捉人像图片的低级语义特征,通过Transformer捕捉人像图片中的高级语义特征,将得到的特征图进行跳跃连接,共同编码包含坐标信息的热力图;S3:基于Convolution和Transformer特征融合的回归网络将N个关键点的N个热力图联合在同一个通道,生成具有边界信息的热力图,输出N+1个通道的热力图;S4:将输出的热力图取前N个热力图进行解码,得到精确的N个关键点的坐标信息。该方法及系统有利于提高检测精度和运行速度。

Patent Agency Ranking