-
公开(公告)号:CN113657511B
公开(公告)日:2022-10-28
申请号:CN202110954649.7
申请日:2021-02-02
Applicant: 哈尔滨商业大学
IPC: G06V10/764 , G06V10/77 , G06V10/80 , G06V10/762
Abstract: 一种商品图像特征描述方法,解决了采用现有视觉词包特征描述方法的商品图像分类效果不佳的问题,属于图像分类领域。本发明包括:对2倍升采样的商品图像进行小波多尺度分解,提取多尺度特征点,进行边缘填充,在边缘填充后的图像上划定图像的局部区域,利用SURF局部特征与量化归一的颜色矢量角特征对划定的局部区域进行描述,并通过串行融合得到最终的局部区域特征的描述子;对局部区域特征进行聚类,形成词包;对每个局部区域特征与词包中的词特征向量进行距离度量,给局部区域特征编码,使用对角同心矩空间模型进行特征汇聚形成图像描述子,并进行降维,获得视觉词包特征向量;将获得的视觉词包特征向量用分类器分类。
-
公开(公告)号:CN113657511A
公开(公告)日:2021-11-16
申请号:CN202110954649.7
申请日:2021-02-02
Applicant: 哈尔滨商业大学
IPC: G06K9/62
Abstract: 一种商品图像特征描述方法,解决了采用现有视觉词包特征描述方法的商品图像分类效果不佳的问题,属于图像分类领域。本发明包括:对2倍升采样的商品图像进行小波多尺度分解,提取多尺度特征点,进行边缘填充,在边缘填充后的图像上划定图像的局部区域,利用SURF局部特征与量化归一的颜色矢量角特征对划定的局部区域进行描述,并通过串行融合得到最终的局部区域特征的描述子;对局部区域特征进行聚类,形成词包;对每个局部区域特征与词包中的词特征向量进行距离度量,给局部区域特征编码,使用对角同心矩空间模型进行特征汇聚形成图像描述子,并进行降维,获得视觉词包特征向量;将获得的视觉词包特征向量用分类器分类。
-
公开(公告)号:CN109978846A
公开(公告)日:2019-07-05
申请号:CN201910204748.6
申请日:2019-03-18
Applicant: 哈尔滨商业大学
Abstract: 一种基于体局部方向三值模式的肺结节纹理特征提取系统及方法。本发明涉及从肺部CT图像识别出肺结节方法。现有肺结节文理特征提取方法存在图像的部分纹理信息损失,而导致的肺结节识别率的问题。一种基于体局部方向三值模式的肺结节纹理特征提取系统及方法,基于VLBP模式对肺结节的相邻切片进行局部模式提取;对提取的局部模式利用正态分布函数进行局部自适应阈值的计算;将局部三值模式以中心像素为中心进行各方向的三值概率统计;将统计得到的各方向的三值概率作为特征向量和KNN分类算法来识别肺结节,并进行肺结节纹理特征识别结果的评价,得出识别结果是否正确。本发明方法提高了肺结节识别的准确率。
-
公开(公告)号:CN103559702B
公开(公告)日:2016-04-20
申请号:CN201310444858.2
申请日:2013-09-26
Applicant: 哈尔滨商业大学
IPC: G06T7/00
Abstract: 基于小波系数熵的二维单视图像深度估计方法,涉及一种二维单视图像深度估计方法。它是为了解决现有的二维单视图像深度估计方法的准确度低,以及对不同的边缘类型泛化能力较差的问题。其方法:对于待处理图像中的每个像素(i,j),以该像素为中心选取N×N大小的窗口作为子图像;然后选取Haar小波基,并对该子图像做二维小波变换;设定量化步长,然后对子图像HH子带的小波系数进行量化,然后计算其系数熵,并将该熵作为像素点(i,j)的模糊程度的度量;遍历每个像素点,得到每个像素点所对应的小波系数熵,然后通过线性映射把熵值映射到8bit的深度值域,得到像素级的深度图,完成基于小波系数熵的二维单视图像深度估计。本发明适用于二维单视图像深度估计。
-
公开(公告)号:CN101742305B
公开(公告)日:2011-04-13
申请号:CN200910073376.4
申请日:2009-12-09
Applicant: 哈尔滨商业大学
Abstract: 基于马尔科夫链模型的可伸缩性视频编解码系统运动估计方法,属于图像处理领域,本发明是为了解决采用MVFAST、PMVFAST算法进行运动估计,编码器及整个编解码系统的编码效率低,运算速度低的问题。本发明的方法包括:步骤一、将测试序列建立马尔科夫链模型,将输入视频中的每一帧分成多个宏块,所有帧相同位置的宏块构成一个马尔科夫链;步骤二、所述测试序列的马尔科夫链下一个宏块的预测状态Si为:步骤三、所述测试序列的马尔科夫链下一个宏块的预测运动矢量为当前宏块状态空间SM中与Si对应的矢量。
-
公开(公告)号:CN101742305A
公开(公告)日:2010-06-16
申请号:CN200910073376.4
申请日:2009-12-09
Applicant: 哈尔滨商业大学
Abstract: 基于马尔科夫链模型的可伸缩性视频编解码系统运动估计方法,属于图像处理领域,本发明是为了解决采用MVFAST、PMVFAST算法进行运动估计,编码器及整个编解码系统的编码效率低,运算速度低的问题。本发明的方法包括:步骤一、将测试序列建立马尔科夫链模型,将输入视频中的每一帧分成多个宏块,所有帧相同位置的宏块构成一个马尔科夫链;步骤二、所述测试序列的马尔科夫链下一个宏块的预测状态Si为:步骤三、所述测试序列的马尔科夫链下一个宏块的预测运动矢量为当前宏块状态空间SM中与Si对应的矢量。
-
公开(公告)号:CN119052593A
公开(公告)日:2024-11-29
申请号:CN202411074618.2
申请日:2024-08-07
Applicant: 哈尔滨商业大学
IPC: H04N21/647 , H04L47/24 , H04L47/34 , H04L67/10
Abstract: 本发明提供一种云边传输的图像通信控制方法及系统,涉及云边图像数据传输技术领域,具体步骤为:通过归并排序,将网络端口发送的图像通信数据按内存大小合并为完整的数据包序列,设立边缘节点阈值,将数据包分为简单和复杂子列,传输至边缘节点和云端服务器,采集边缘节点和云端服务器的网络延迟、带宽利用率及实时带宽使用量数据,生成边缘节点系数和带宽系数,对两类数据包单元化处理和校准,根据复杂数据包在服务器中的带宽占比设定优先级,送入数据缓冲区,设立筛选机制对数据包进行筛选,经过筛选和处理后的两类数据包按序列号与标识形成数据链。本发明有效结合了边缘计算与云端资源的优化利用,为实时图像传输提供了可靠的技术支持和保障。
-
公开(公告)号:CN112966715B
公开(公告)日:2021-09-07
申请号:CN202110144794.9
申请日:2021-02-02
Applicant: 哈尔滨商业大学
IPC: G06K9/62
Abstract: 一种基于多尺度视觉词包模型的商品图像特征描述方法,解决了采用现有视觉词包特征描述方法的商品图像分类效果不佳的问题,属于图像分类领域。本发明包括:对2倍升采样的商品图像进行小波多尺度分解,提取多尺度特征点,进行边缘填充,在边缘填充后的图像上划定图像的局部区域,利用SURF局部特征与量化归一的颜色矢量角特征对划定的局部区域进行描述,并通过串行融合得到最终的局部区域特征的描述子;对局部区域特征进行聚类,形成词包;对每个局部区域特征与词包中的词特征向量进行距离度量,给局部区域特征编码,使用对角同心矩空间模型进行特征汇聚形成图像描述子,并进行降维,获得视觉词包特征向量;将获得的视觉词包特征向量用分类器分类。
-
公开(公告)号:CN112966715A
公开(公告)日:2021-06-15
申请号:CN202110144794.9
申请日:2021-02-02
Applicant: 哈尔滨商业大学
IPC: G06K9/62
Abstract: 一种基于多尺度视觉词包模型的商品图像特征描述方法,解决了采用现有视觉词包特征描述方法的商品图像分类效果不佳的问题,属于图像分类领域。本发明包括:对2倍升采样的商品图像进行小波多尺度分解,提取多尺度特征点,进行边缘填充,在边缘填充后的图像上划定图像的局部区域,利用SURF局部特征与量化归一的颜色矢量角特征对划定的局部区域进行描述,并通过串行融合得到最终的局部区域特征的描述子;对局部区域特征进行聚类,形成词包;对每个局部区域特征与词包中的词特征向量进行距离度量,给局部区域特征编码,使用对角同心矩空间模型进行特征汇聚形成图像描述子,并进行降维,获得视觉词包特征向量;将获得的视觉词包特征向量用分类器分类。
-
公开(公告)号:CN106649611A
公开(公告)日:2017-05-10
申请号:CN201611076051.8
申请日:2016-11-29
Applicant: 哈尔滨商业大学
Abstract: 一种基于邻域旋转直角模式的图像检索方法,本发明涉及基于邻域旋转直角模式的图像检索方法。本发明了解决现有技术在阈值的选择上具有局限性,选择灰度图像损失了图像部分信息,导致查全率和查准率低的问题。本发明步骤为:一:分离彩色图像R、G、B三通道色,分别对三通道色进行二维离散小波变换,取三通道色的低频子带,作为所选平面;二:基于VLBP模式根据步骤一所选的平面提取局部模式;三:使用邻域旋转直角模式计算局部模式的邻域旋转直角模式值;步骤四:将邻域旋转直角模式值形成的特征向量与图像数据库进行特征相似度度量,使用查全率以及查准率对图像检索结果进行评价。本发明应用于图像检索领域。
-
-
-
-
-
-
-
-
-