-
公开(公告)号:CN118379318B
公开(公告)日:2024-09-17
申请号:CN202410351438.8
申请日:2024-03-26
Applicant: 海南大学
Abstract: 本发明提供了一种用于传统纹样图像特征提取的图像分割优化方法,属于图像分割领域,包括:获取传统纹样图像的RGB颜色空间像素,采用二维傅里叶变换将图像从空间域转换到频域,得到复数形式的频谱,分析频谱,将图像中特征区域的频谱和非特征区域频谱分开;经傅里叶逆变换处理,将图像从频域转换回空间域;将空间域图像的像素值范围设置在0到255之间,并转换为灰度图像;改进雪鹅优化算法,利用改进的野鹅优化算法整定K‑means算法的分割阈值,得到K‑means算法分割传统纹样图像的最佳阈值K,利用最佳阈值对灰度图像进行分割,通过优化图像分割技术提高对传统纹样图像特征提取的精确性。
-
公开(公告)号:CN118379318A
公开(公告)日:2024-07-23
申请号:CN202410351438.8
申请日:2024-03-26
Applicant: 海南大学
IPC: G06T7/136 , G06V10/762 , G06V10/77 , G06V10/26 , G06N3/006
Abstract: 本发明提供了一种用于传统纹样图像特征提取的图像分割优化方法,属于图像分割领域,包括:获取传统纹样图像的RGB颜色空间像素,采用二维傅里叶变换将图像从空间域转换到频域,得到复数形式的频谱,分析频谱,将图像中特征区域的频谱和非特征区域频谱分开;经傅里叶逆变换处理,将图像从频域转换回空间域;将空间域图像的像素值范围设置在0到255之间,并转换为灰度图像;改进雪鹅优化算法,利用改进的野鹅优化算法整定K‑means算法的分割阈值,得到K‑means算法分割传统纹样图像的最佳阈值K,利用最佳阈值对灰度图像进行分割,通过优化图像分割技术提高对传统纹样图像特征提取的精确性。
-
公开(公告)号:CN116245650A
公开(公告)日:2023-06-09
申请号:CN202310093481.4
申请日:2023-02-09
Applicant: 海南大学
IPC: G06Q40/06 , G06N3/0442 , G06N3/045
Abstract: 本发明提出一种基于融合注意力机制的创业指数收盘价数据预测方法,包括,获取创业指板收盘价数据集作为训练数据集;对训练数据集进行预处理;将Bahdanau‑Attention机制与Luong‑Attention机制进行融合,将融合后的机制BAL‑Attention引入到数据预测模型的LSTM层及输出层之间对所述数据预测模型进行改进;利用预处理后的训练数据集对改进后的数据预测模型进行训练,得到训练完成的数据预测模型;通过训练完成的数据预测模型预测未来的股市数据波动情况。通过本发明提出的方法,可以有效提高预测精度以及模型稳定性。
-
公开(公告)号:CN115830438A
公开(公告)日:2023-03-21
申请号:CN202211078814.8
申请日:2022-09-05
Applicant: 海南大学
IPC: G06V20/10 , G06V10/26 , G06V10/764 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本申请提出了一种基于深度学习的复杂场景下违章建筑物体检测方法及装置,涉及人工智能与土木工程交叉领域,包括以下步骤:实时获取待检测目标图像;切割待检测目标图像,获取预设数量的待检测切割目标图像;根据训练后的检测网络模型检测待检测切割目标图像,确定待检测目标图像的类别,其中,以改进后的轻量级卷积神经网络EfficientNet‑B2作为主干网络,且以Eiou损失函数作为损失函数构成检测网络模型,根据违章建筑物体数据集训练检测网络模型。本申请通过分块化处理待检测目标图像,根据轻量级卷积神经网络EfficientNet‑B2优化YOLOv3算法,确定H‑Swish激活函数与H‑Sigmoid激活函数作为激活函数,确定Eiou损失函数作为损失函数,实现违章建筑的实时检测,降低成本。
-
公开(公告)号:CN116319959A
公开(公告)日:2023-06-23
申请号:CN202211091446.0
申请日:2022-09-07
Applicant: 海南大学
Abstract: 本发明提出一种协同服务平台中的服务组合优化方法,包括,根据用户需求匹配满足功能需求的候选服务集;将候选服务集内服务质量属性进行标准化,并根据标准化后的服务质量属性构建服务组合优化模型;基于改进的花授粉算法计算所述服务组合优化模型适应度值最大的最优解;根据最优解获取服务组合优化数学模型的最优服务组合。通过本发明提出的协同服务平台中的服务组合优化方法,提高了服务组合优化的执行效率。
-
公开(公告)号:CN116246658A
公开(公告)日:2023-06-09
申请号:CN202211580263.5
申请日:2022-12-09
Applicant: 海南大学
Abstract: 本申请提出了一种基于MobileCBAM‑CenterNet的鼾声检测方法及装置,涉及人工智能领域,包括:监听并采集用户在睡眠中产生的音频;对音频进行短时傅里叶变换,获取音频的频谱图像;根据训练后的检测模型MobileCBAM‑CenterNet检测并识别频谱图像,确定音频的类别,其中,MobileCBAM‑CenterNet以改进后的目标检测框架CenterNet为基础,以卷积神经网络ResNet50作为主干特征提取网络;在预设时间内记录音频的类别,将记录结果发送给用户。本申请通过短时傅里叶变换处理音频,引用卷积神经网络ResNet50作为主干特征提取网络,并引入Mish激活函数、H‑Swish激活函数与MobileCBAM注意力机制,检测并记录用户睡眠时产生音频的类别,实现了高精度的鼾声检测,降低成本。
-
公开(公告)号:CN116226450A
公开(公告)日:2023-06-06
申请号:CN202310101332.8
申请日:2023-02-10
Applicant: 海南大学
IPC: G06F16/783 , G06F16/78 , G06V20/40 , G06V10/774 , G06V10/82 , G06F40/20 , G06N3/0455 , G06N3/088 , G06N3/0895
Abstract: 本发明提出一种基于无监督预训练模型的视频表示方法,包括,获取视频样本集,将视频样本集的视频帧嵌入和视频标题的文本标记作为输入,分别使用掩码框架建模和掩码语言建模对视频表示模型进行预训练,得到预训练模型;通过对比学习方法对视频样本集中的视频标题的文本标记进行重新构造,得到正样本集、中等样本集和负样本集;通过动态队列训练方法使用所述正样本集、中等样本集和负样本集对预训练模型进行对比训练,得到完成的视频表示模型;获取待标注视频,通过完成的视频表示模型完成内容提取。
-
公开(公告)号:CN116077941A
公开(公告)日:2023-05-09
申请号:CN202211586694.2
申请日:2022-12-09
Applicant: 海南大学
IPC: A63F13/63 , G06V10/40 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/092
Abstract: 本发明公开了一种用于Atari游戏的深度强化学习网络训练方法及装置,该方法包括:获取Atari游戏平台中的游戏图像数据;将所述游戏图像数据输入至深度强化学习模型进行图像特征提取,利用提取的图像特征在游戏中进行模型训练和智能体训练,以得到训练好的深度强化学习模型和训练好的智能体;其中,深度强化学习模型,包括第一卷积核大小的深度可分离卷积、第二卷积核大小的深度可分离卷积和包含H‑Swish激活函数的全连接层。本发明提出的LDQN模型不仅保证了其对于图像的特征提取能力还进一步优化了DQN的网络结构,使其在低成本的情况下,达到与原始DQN相同的性能,在Atari游戏中,仍然有着超越人类的表现。
-
公开(公告)号:CN116072145A
公开(公告)日:2023-05-05
申请号:CN202211666394.5
申请日:2022-12-23
Applicant: 海南大学
Abstract: 本发明提出一种基于梅尔倒谱系数特征和YGHNet网络的鼾声检测方法及装置,其中方法包括:通过声音收集装置监听睡眠中目标用户发出的声音;将声音通过处理得到梅尔倒谱系数图;将梅尔倒谱系数图输入训练好的YGHNet模型;输出检测结果,记录所检测到的音频类别,并反馈给目标用户。通过本发明提出的方法,能够快速、准确、低成本地检测到睡眠期间的鼾声。
-
公开(公告)号:CN115662474A
公开(公告)日:2023-01-31
申请号:CN202211079447.3
申请日:2022-09-05
Applicant: 海南大学
Abstract: 本申请提出了一种基于短时傅里叶变换和深度学习的鼾声检测方法及装置,涉及人工智能领域,包括以下步骤:采集用户在睡眠中产生的音频;对音频进行短时傅里叶变换,获取音频的频谱图像;根据训练后的检测网络模型检测频谱图像,确定音频的类别。本申请通过短时傅里叶变换处理音频,引用轻量级卷积神经网络MobileNetv3网络作为原始主干网络,引用深度可分离卷积的思想修改模型,确定H‑SMish激活函数作为激活函数,检测并记录用户睡眠时产生音频的类别,实现了高精度的鼾声检测,降低成本。
-
-
-
-
-
-
-
-
-