-
公开(公告)号:CN113920353A
公开(公告)日:2022-01-11
申请号:CN202111300505.6
申请日:2021-11-04
Applicant: 厦门市美亚柏科信息股份有限公司
IPC: G06V10/762 , G06V40/16 , G06V10/74 , G06N3/04 , G06N3/08
Abstract: 本发明提出了一种无监督的人脸图像二次聚类方法、装置及存储介质,该方法包括:对获取的n张人脸图像计算相似度矩阵和图像质量分数,并基于图像质量分数对相似度矩阵进行调整,基于调整后的相似度矩阵对n张人脸图像进行初次聚类得到初次聚类结果;基于所述聚类结果中的每个簇中的图像数量分为离散簇和聚集簇;在选出每个簇的代表元后,利用并查集算法先将满足条件的离散簇合并至聚集簇,再进行聚集簇之间的合并,得到二次聚类后的人脸图像。本发明创造性地提出了二次聚类的方式,在前后两次聚类中使用不同的相似度阈值,逐步求精;并且在聚类过程,针对聚类样本/聚类簇的特点对相似度计算作精细调整,最终实现高精确率和高归档率的人脸聚类。
-
公开(公告)号:CN113627475A
公开(公告)日:2021-11-09
申请号:CN202110768690.5
申请日:2021-07-07
Applicant: 厦门市美亚柏科信息股份有限公司
Abstract: 本发明提出了一种对样本进行不确定性估计的方法及装置,该方法包括:在神经网络的特征提取器的网络结构中加入至少一个随机结构;对训练集中的至少一个训练样本进行随机扰动得到训练扰动样本,将所述训练扰动样本添加到所述训练集中得到复合训练样本集;使用所述复合训练样本集对所述神经网络的特征提取器进行训练得到训练后的特征提取器;使用训练后的特征提取器对测试样本进行特征提取后进行不确定性估计。本发明中,增加了随机结构,且本发明中,对训练样本进行随机扰动后生成一些噪音样本,一起用于提取器的训练,使得训练后的提取器分辨能力更高,然后使用该特征提取器提取测试样本的特征后进行不确定性评估,进而提高神经网络的识别性能。
-
公开(公告)号:CN112633394A
公开(公告)日:2021-04-09
申请号:CN202011590641.9
申请日:2020-12-29
Applicant: 厦门市美亚柏科信息股份有限公司
Abstract: 本发明涉及一种智能用户标签确定方法、终端设备及存储介质,该方法包括以下步骤:根据确定用户标签所需的数据来源将用户标签分成简单标签和复杂标签,其中,简单标签只需要结构化数据,复杂标签信息同时存在多模态数据中;简单标签采用单一模态标签确定方法来确定,以及复杂标签采用深度学习算法确定方法来确定。本发明利用多模态数据之间的互补性,并剔除多模态数据间的冗余性,从而能够更准确、更全面确定用户标签和提高用户标签确定方法的泛化性能,更好地推广和应用。
-
公开(公告)号:CN111783570A
公开(公告)日:2020-10-16
申请号:CN202010551610.6
申请日:2020-06-16
Applicant: 厦门市美亚柏科信息股份有限公司
Abstract: 本发明提供了一种目标重识别的方法、装置、系统及计算机存储介质,所述方法包括:获取目标图像和待识别图像序列;将所述待识别图像序列和所述目标图像输入训练好的输入目标重识别模型,得到目标重识别结果;其中,所述目标重识别结果包括所述待识别图像序列中与所述目标图像属于同一目标的待识别图像,所述目标重识别模型包括多个阶段网络,至少一个所述阶段网络包括第一残差模块,所述第一残差模块包括自适应规范化层,所述自适应规范化层包括实例正则化层和批规范化层,所述实例正则化层和所述批规范化层的通道数之和为所述自适应规范化层的通道数。根据本发明的方法、装置、系统及计算机存储介质,通过对目标重识别网络中规范化层的改进,有效提升了目标重识别的识别性能及其域自适应学习能力。
-
公开(公告)号:CN111563438A
公开(公告)日:2020-08-21
申请号:CN202010351089.1
申请日:2020-04-28
Applicant: 厦门市美亚柏科信息股份有限公司
Abstract: 本发明公开了一种用于视频结构化的目标排重方法和装置,通过目标检测算法检测视频中当前帧所具有的目标的第一位置信息;将第一位置信息输入deepsort网络并与deepsort网络中的卡尔曼跟踪器进行第一次匹配,获得第一次匹配结果;根据第一次匹配结果对卡尔曼跟踪器或第一位置信息进行处理,其中对于第一次未被匹配上的卡尔曼跟踪器所对应的目标通过KCF跟踪器预测得到对应的目标的第二位置信息;将第二位置信息与第一次未被匹配上的卡尔曼跟踪器进行第二次匹配,获得第二次匹配结果;以及根据第二次匹配结果对第一次未被匹配上的卡尔曼跟踪器和第二位置信息进行处理,得到目标排重后的位置信息。通过本发明可以对目标进行跟踪,有效提高算法的性能,提高计算速度。
-
公开(公告)号:CN110826497A
公开(公告)日:2020-02-21
申请号:CN201911083394.0
申请日:2019-11-07
Applicant: 厦门市美亚柏科信息股份有限公司
IPC: G06K9/00
Abstract: 本发明公开了一种基于最小距离法的车辆排重方法和装置,通过获取视频中的帧图像,通过目标检测算法对每张帧图像进行车辆检测得到包含有完整车辆的矩形框的车辆图像;通过目标跟踪算法生成车辆图像中的车辆ID,并获得车辆ID对应的车辆在帧图像中的车辆图像集合;分别计算车辆图像集合中的每张车辆图像的矩形框的距离指数,并将计算得到的最小距离指数所对应的车辆图像标记为车辆排重图像。本申请的实施例提出的车辆排重方法和装置能够有效减少重复的车辆数据,减少车辆信息提取后端负载,大大提升系统性能。
-
公开(公告)号:CN110543560A
公开(公告)日:2019-12-06
申请号:CN201910731678.X
申请日:2019-08-08
Applicant: 厦门市美亚柏科信息股份有限公司
Abstract: 本发明提供了一种基于多粒度卷积神经网络的长文本分类识别方法、装置及存储介质,该方法包括:将所述训练样本集中的长文本样本基于所述映射表转换为数字序列得到数字序列形式的训练样本集,使用所述数字序列形式的训练样本集训练多粒度卷积神经网络得到训练后的多粒度卷积神经网络,基于所述映射表将待分类识别的长文本转换为数字序列使用训练后的多粒度卷积神经网络进行分类识别得到分类识别结果。本发明将汉字文本转换为数字序列进行处理,提高了处理速度,且本发明的多粒度卷积神经网络结构,具有提取全局特征和局部特征的分支,由于采用多分支的结构,保留了长文本的整体语义信息及局部关键信息,有效提升长文本分类识别的准确率。
-
公开(公告)号:CN110209857A
公开(公告)日:2019-09-06
申请号:CN201910436423.0
申请日:2019-05-23
Applicant: 厦门市美亚柏科信息股份有限公司
Abstract: 本发明提供了一种基于神经网络结构搜索的车辆多属性识别方法、装置及存储介质,该方法先基于难以识别的车辆属性选择基准神经网络模型,然后在该基准神经网络模型的基础上,选择前半个网络(包含N/2个单元)作为整个车辆多属性识别网络模型的低层特征提取器,然后,其末端作为分支点,为其他的属性构建识别分支,且采用类似二分法的方法确定网络的结构,通过上述结合神经网络结构搜索技术构建的多分支的车辆多属性识别网络,可以一次识别车辆的多个属性,如型号、颜色等等,提高了识别效率。本发明提出了的两种网络更正机制可以使得生成的多分支的车辆多属性识别网络性能更佳,且在网络构建时效率更高。
-
公开(公告)号:CN110175555A
公开(公告)日:2019-08-27
申请号:CN201910435653.5
申请日:2019-05-23
Applicant: 厦门市美亚柏科信息股份有限公司
Abstract: 本公开实施例公开了人脸图像聚类方法和装置。该方法的一具体实施方式包括:获取待聚类人脸图像,以及确定待聚类人脸图像的特征向量;确定目标存储区中是否存在至少一个聚类人脸图像集合;响应于确定存在,获取至少一个聚类人脸图像集合分别对应的聚类中心向量;对于至少一个聚类人脸图像集合中的每个聚类人脸图像集合,确定该聚类人脸图像集合对应的聚类中心向量与特征向量的相似度;响应于确定所得到的相似度大于等于预设的相似度阈值,将待聚类人脸图像添加入该聚类人脸图像集合,得到更新后聚类人脸图像集合。该实施方式提高了将待聚类人脸图像与聚类人脸图像集合进行相似性比较的效率,可以提高对待聚类人脸图像进行聚类的准确性。
-
公开(公告)号:CN106019339A
公开(公告)日:2016-10-12
申请号:CN201610311762.2
申请日:2016-05-12
Applicant: 厦门市美亚柏科信息股份有限公司
Abstract: 本发明提供一种高精度GPS定位点获取方法及系统,方法包括:获取GPS定位点数据集合;使用预设的精度因子分别去掉GPS定位点数据集合中经度数据和纬度数据的无效位数;依据精度因子设置直方图的单位区间,分别对修正后的经度数据和纬度数据进行直方图统计;分别根据修正后经度数据和纬度数据的直方图获取预设个数连续的单位区间所对应GPS定位点个数最多的区间,并获取该区间内修正数据对应的GPS定位点数据集合,记为第一集合和第二集合;对第一集合和第二集合中GPS点数据进行相应的修正和统计后,得到对应GPS定位点个数最多的第三集合和第四集合。本发明得到相对接近GPS准确点的第三集合和第四集合,极大地提高了精度。
-
-
-
-
-
-
-
-
-