-
公开(公告)号:CN119810527A
公开(公告)日:2025-04-11
申请号:CN202411870422.4
申请日:2024-12-18
Applicant: 南昌工程学院 , 广州建筑股份有限公司 , 广州建研工程科技有限公司 , 广州建设工程质量安全检测中心有限公司
IPC: G06V10/764 , G06T7/11 , G06V20/10
Abstract: 本发明公开了一种基于空间结构先验特征的高光谱稀疏解混方法,包括如下步骤:S1、建立光谱线性混合模型;S2、基于光谱线性混合模型,将稀疏解混引入高光谱图像解混,构建初始目标函数;S3、利用SLIC得到粗尺度高光谱图像,对其解混可得到粗尺度下的丰度估计,用于构建超像素空间加权因子S;S4、构建梯度加权系数全变差(GWCTV)正则化项;S5、得到基于空间结构先验特征的稀疏解混模型,采用交替方向乘子方法进行求解丰度矩阵A。本发明能更好地挖掘空间结构信息,使光谱信息相同或相似的像元能更加精准地归类到同质区域内,有效应对复杂混合噪声的干扰。
-
公开(公告)号:CN117671384A
公开(公告)日:2024-03-08
申请号:CN202311735609.9
申请日:2023-12-18
Applicant: 南昌工程学院 , 广州建筑股份有限公司
IPC: G06V10/764 , G06V10/58 , G06V10/80 , G06V10/44 , G06V10/82 , G06N3/045 , G06N3/0464 , G06N3/048 , G06N3/09
Abstract: 本发明公开了一种高光谱图像分类方法,其结合了卷积神经网络和混合组合变换器注意力网络的优点。在光谱特征提取方面,利用3D密集卷积神经网络获取高光谱图像的局部光谱特征信息,然后利用混合组合变换器注意力网络来同时捕捉各种组大小的token以及组之间的关联;在空间特征提取方面,利用2D密集卷积神经网络获取高光谱图像的局部空间特征信息,然后利用混合组合变换器注意力网络来增强高光谱图像的全局空间信息的利用。最后,将空间和光谱特征信息经特征融合网络实现空间‑光谱特征信息的融合,再经过Softmax层输出分类结果。本发明实现了对高光谱图像的准确分类,采用了轻量级Sophia优化器,可极大加快模型的运行速度。
-
公开(公告)号:CN111230858B
公开(公告)日:2022-11-22
申请号:CN201910169395.0
申请日:2019-03-06
Applicant: 南昌工程学院
IPC: B25J9/16
Abstract: 本发明公开了基于增强学习的视觉机器人运动控制方法,属于机器人控制技术领域,基于增强学习的视觉机器人运动控制方法,包括:主成像数据采集,分路子信息采集,范围空间模型建立,制定移动轨迹策略,分路信息周期传输,运动路径实时校正,根据步骤五分路子探头采集到的路径变动信息,对建立的范围空间模型进行补充,并实时更正移动轨迹信息,可以实现通过增强学习算法和外置的机器视觉探头,对机器人的视域范围进行补充,及时调整运动轨迹,降低运动轨迹偏差量,提高机器人的运动轨迹运行正确率,同时对机器人外部变化进行自检,减少因外部环境造成的腐蚀对机器人运动控制的影响。在视域共享,触摸补充视觉。
-
公开(公告)号:CN118072186A
公开(公告)日:2024-05-24
申请号:CN202311766254.X
申请日:2023-12-21
Applicant: 南昌工程学院 , 广州建筑股份有限公司
IPC: G06V20/13 , G06V10/764 , G06V10/30 , G06V10/774
Abstract: 本发明属于高光谱图像处理技术领域。本发明提供了一种基于高光谱解混技术的矿物识别与分类方法,包括如下步骤:S1、利用高光谱成像仪获取相关矿物的高光谱图像;S2、构建矿物端元光谱库;S3、根据相关矿物的高光谱图像建立双线性光谱混合模型;S4、利用鲁棒光谱可变双线性空间正则化解混算法,进行光谱解混,精准估计混合像元内所包含的每种矿物的丰度;S5、根据求解得到的矿物的丰度,量化每种矿物对应的比例,做到精准识别与分类。本方法解决了高光谱图像中存在的复杂混合噪声干扰以及光谱变异问题。
-
公开(公告)号:CN115620128A
公开(公告)日:2023-01-17
申请号:CN202211142401.1
申请日:2022-09-20
Applicant: 南昌工程学院
IPC: G06V20/10
Abstract: 本发明提供高光谱异常检测方法,包括以下步骤:步骤1,构建高光谱图像的线性光谱混合模型;步骤2,构建双空间权重稀疏解混模型,计算各端元在混合像元中的丰度矩阵;步骤3,引入光谱加权因子和基于空间邻域信息的空间加权因子,创建字典空谱低秩分解模型;步骤4,对字典空谱低秩分解模型求解,求得异常矩阵;步骤5,通过异常矩阵,求得重建图像;步骤6,根据高光谱图像和重建图像得到异常目标检测图像。本发明本发明通过引入光谱加权因子和基于空间邻域信息的空间加权因子来充分挖掘高光谱图像的光谱信息和空间信息的相关性,以提升高光谱图像异常检测检测的准确性,本发明的异常检测结果准确率为99.39%。
-
公开(公告)号:CN112532932A
公开(公告)日:2021-03-19
申请号:CN202011316439.7
申请日:2020-11-20
Applicant: 南昌工程学院
Abstract: 本发明公开了一种具有目标跟踪功能的监控装置,包括:安装座,其上滑动设置有滑架,滑架上设置有角度调节机构;人脸识别模块,设置在安装座上,人脸识别模块上设置有用于面像目标文件输入的输入端,面像目标文件输入后保存在人脸识别模块上的CPU内,还包括用于对图片进行图像处理的图像处理模块以及用于控制角度调节机构动作的模糊控制器,CPU、图像处理模块以及模糊控制器依次连接;伺服控制器,设置在安装座上,伺服控制器分别与角度调节机构和模糊控制器连接;还有摄像头,设置在安装座上,用于全方位的对目标对象进行视频采集,摄像头的输出端与图像处理模块连接,摄像还与所述伺服控制器连接;本发明提供了一种具有目标追踪功能的监控装置。
-
公开(公告)号:CN111230857A
公开(公告)日:2020-06-05
申请号:CN201910165083.2
申请日:2019-03-05
Applicant: 南昌工程学院
IPC: B25J9/16 , B25J13/08 , B25J19/02 , G06K9/00 , G06T7/55 , G06T7/73 , G06T7/80 , H04N5/247 , H04N5/235
Abstract: 本发明公开了基于机器视觉和深度学习的目标定位与抓取,属于机器视觉领域,基于机器视觉和深度学习的目标定位与抓取,包括摄像机组、机械臂和安装架,摄像机组包括左摄像机和右摄像机,左摄像机和右摄像机均连接于安装架上端,安装架上端中心处连接有安装筒,安装筒内侧设有辅助角锥,辅助角锥配合有辅助水平测定仪本方案利用光学自准直成像原理,通过LED发光元件和线阵CCD成像技术设计来辅助摄像机组初始状态的的水平调节,确保摄像机组的初始水平度,以便为后续摄像机组的角度调节提供调整精确的参照,基本上消除因摄像机组初始水平度误差对标定精度的影响,同时可进一步提高相关算法的有效性。
-
公开(公告)号:CN112532932B
公开(公告)日:2023-02-24
申请号:CN202011316439.7
申请日:2020-11-20
Applicant: 南昌工程学院
IPC: H04N7/18 , H04N23/611 , H04N23/695 , H04N23/67 , F16M11/06 , F16M11/18
Abstract: 本发明公开了一种具有目标跟踪功能的监控装置,包括:安装座,其上滑动设置有滑架,滑架上设置有角度调节机构;人脸识别模块,设置在安装座上,人脸识别模块上设置有用于面像目标文件输入的输入端,面像目标文件输入后保存在人脸识别模块上的CPU内,还包括用于对图片进行图像处理的图像处理模块以及用于控制角度调节机构动作的模糊控制器,CPU、图像处理模块以及模糊控制器依次连接;伺服控制器,设置在安装座上,伺服控制器分别与角度调节机构和模糊控制器连接;还有摄像头,设置在安装座上,用于全方位的对目标对象进行视频采集,摄像头的输出端与图像处理模块连接,摄像还与所述伺服控制器连接;本发明提供了一种具有目标追踪功能的监控装置。
-
公开(公告)号:CN112288779A
公开(公告)日:2021-01-29
申请号:CN202011211229.1
申请日:2020-11-03
Applicant: 南昌工程学院
IPC: G06T7/246
Abstract: 本发明涉及目标跟踪识别技术领域,具体涉及一种目标跟踪方法,包括如下步骤:S1、获取包含所述目标的N帧历史图像,获取所述目标的所有特征参数,构建特征参数集;S2、基于所述特征参数集构建用于实现目标检测跟踪的Dssd_inception_V3_coco模型;S3、基于Dssd_inception_V3 coco模型实现待检测帧图像的实时检测,根据检测结果实现目标的跟踪。本发明基于目标特征参数、携带配饰后的特征参数、携带妆容后的特征参数、以及携带表情后的特征参数构建Dssd_inception_V3 coco模型,在可以实现了目标快速识别的同时,可以尽可能的避免识别跟踪盲区。
-
公开(公告)号:CN111239085A
公开(公告)日:2020-06-05
申请号:CN201910168809.8
申请日:2019-03-06
Applicant: 南昌工程学院
Abstract: 本发明公开了基于深度学习的显微视觉伺服控制方法,属于显微伺服控制领域,基于深度学习的显微视觉伺服控制方法,可以通过在显微操作之前进行模拟操控,可以同时模拟操作轨迹以及细胞反应,通过模拟操控可以在进行显微操作之前预设可能会出现的问题,并分析出最优的操作轨迹和数据,在这过程中相较于现有技术,可以存在一个模拟操控修正的过程,从而有效提高了后续显微操作的成功率,然后将该操作轨迹和数据转化成伺服控制机器人的实际操作数据,从而完成显微操作,在这个过程中,避开了人为操作,从而有效降低了由于人为因素造成的不确定的误差,从而极大地提高了显微操作的成功率,从而无形中降低了对显微操作的成本投入。
-
-
-
-
-
-
-
-
-