-
公开(公告)号:CN114529946B
公开(公告)日:2024-12-10
申请号:CN202210168277.X
申请日:2022-02-23
Applicant: 厦门市美亚柏科信息股份有限公司
IPC: G06V40/10 , G06V10/82 , G06N3/045 , G06N3/0895
Abstract: 本发明公开提供一种基于自监督学习的行人重识别方法、装置、设备及存储介质,方法包括:将训练数据集与该训练数据集经过数据增强后分别采用相同的神经网络进行特征提取,得到第一特征向量和第二特征向量,并计算第一特征向量和第二特征向量之间的第一损失函数,再结合模型自身训练时的第二损失函数计算训练过程中的整体损失函数,以整体损失函数最小化为目标训练得到行人重识别模型。根据本发明,使行人重识别模型可以学习图像本身固有先验规律,从而提高行人重识别的精确度。
-
公开(公告)号:CN114529946A
公开(公告)日:2022-05-24
申请号:CN202210168277.X
申请日:2022-02-23
Applicant: 厦门市美亚柏科信息股份有限公司
Abstract: 本发明公开提供一种基于自监督学习的行人重识别方法、装置、设备及存储介质,方法包括:将训练数据集与该训练数据集经过数据增强后分别采用相同的神经网络进行特征提取,得到第一特征向量和第二特征向量,并计算第一特征向量和第二特征向量之间的第一损失函数,再结合模型自身训练时的第二损失函数计算训练过程中的整体损失函数,以整体损失函数最小化为目标训练得到行人重识别模型。根据本发明,使行人重识别模型可以学习图像本身固有先验规律,从而提高行人重识别的精确度。
-
公开(公告)号:CN115457640A
公开(公告)日:2022-12-09
申请号:CN202211261538.9
申请日:2022-10-14
Applicant: 厦门市美亚柏科信息股份有限公司
Abstract: 本申请提出了一种档案合并方法,包括:获取待合并档案,每个所述待合并档案包括一张封面图像和多张人脸图像;根据所述待合并档案检索档案库,得到包含多张人脸图像的预合并档案,并将所述待合并档案和所述预合并档案构建成候选档案对;获取所述待合并档案和所述预合并档案的多维度特征信息以及所述候选档案对的交互特征信息;将所述多维度特征信息和所述交互特征信息输入到训练好的机器学习模型中,所述机器学习模型输出所述候选档案对中的两个档案属于同一目标的置信度;根据所述置信度判断所述候选档案对是否合并成合并档案。本申请的档案合并方法融合了更多维度的特征信息,档案合并的准确性和合并率更高,同时实现了不同合并档案间的去重。
-
公开(公告)号:CN113673382A
公开(公告)日:2021-11-19
申请号:CN202110898483.1
申请日:2021-08-05
Applicant: 厦门市美亚柏科信息股份有限公司
Abstract: 本发明提出了一种人脸图像聚类中非活体过滤的方法、装置及存储介质,该方法包括:分组步骤S101,对聚类后的人脸图像根据摄像头的ID进行分组,其中n≥2;计算步骤S102,针对每一个分组计算所有人脸图像位置的区域及该区域对应的多边形面积,以及该分组对应的摄像头视野面积;过滤步骤S103,基于该区域对应的多边形面积及该分组对应的摄像头视野面积确定采集的人脸图像是否为非活体,如果是,则将非活体的人脸图像删除。本发明创造性的提出了基于人脸出现的区域的面积及摄像头的视野面积进行非活体的识别,识别方法简单可靠,无需增加硬件设备,也不需要被识别人的配合,且识别率较高,满足了工程需要。
-
公开(公告)号:CN115495606A
公开(公告)日:2022-12-20
申请号:CN202210963416.8
申请日:2022-08-11
Applicant: 厦门市美亚柏科信息股份有限公司
IPC: G06F16/55 , G06F16/583 , G06F16/535 , G06V10/74 , G06V10/762
Abstract: 本发明给出了一种图像聚档方法和系统,包括实时获取图片进行特征结构化及属性识别,过滤不满足图片质量分的图片;对图片按时空信息进行切分分组,分批次进行聚类,先利用密度聚类进行聚类,再使用并查集进行批内合并;对于批聚类无法聚成的离散点以及批聚类形成的类,分别与动态底库进行比对归档;合并同一对象的档案,遍历所有档案与静态底库进行比对,对未实名档案进行实名化。本申请提出一种实时聚类、级联合并的图像聚档方法,根据多合并环节环环相扣互补形式实现聚档,保证实时性的同时,还能进一步提高聚档率、聚档准确率,并减少一人多档问题。
-
公开(公告)号:CN115309932A
公开(公告)日:2022-11-08
申请号:CN202210973349.8
申请日:2022-08-15
Applicant: 厦门市美亚柏科信息股份有限公司
IPC: G06F16/583 , G06V20/62 , G06V40/16
Abstract: 本申请涉及一种人车驾乘关系分析方法,其包括以下步骤:S1:获取车卡抓拍设备图片数据,并对所述车卡抓拍设备图片数据进行数据筛选;S2:对筛选后的车卡抓拍设备图片数据进行图像检测,获得满足检测条件的人车图像数据,所述图像检测包括利用目标检测算法获取人脸框、人体框和车辆框坐标,以及利用OCR算法获取车牌框坐标和车牌号;S3:对满足检测条件的人车图像数据进行人车驾乘关系分析,构建人脸‑车牌‑驾乘关系;S4:获取确定人脸‑车牌‑驾乘关系后的人车图像数据中的人脸图片,利用人脸图片在档案数据库中进行以图搜档,获取对应的档案身份,构建人脸身份‑车牌‑驾乘关系;S5:将人脸身份‑车牌‑驾乘关系录入到图数据库,形成驾乘关系图谱。
-
公开(公告)号:CN114239689A
公开(公告)日:2022-03-25
申请号:CN202111392189.X
申请日:2021-11-19
Applicant: 厦门市美亚柏科信息股份有限公司
IPC: G06K9/62 , G06V10/764 , G06V10/82 , G06F16/35 , G06F40/30 , G06F16/951 , G06N3/04
Abstract: 本发明提出了一种基于多模态的网站类型判断方法及装置,该方法包括:基于所述网站的URL爬取网页html文件和网页截图;使用第一神经网络模型对所述网页截图进行识别确定所述网站的图片分类标签;使用第二神经网络模型和第三神经网络对网页html文件进行识别确定所述网站的内容文本语义标签和标题文本语义标签,并通过监管信息平台基于网址URL获取备案信息标签;基于所述图片分类标签、内容文本语义标签、标题文本语义标签和备案信息标签确定所述网站的最终类型。本发明中,使用多模态技术将多种分类结果进行融合,并设计具体的融合策略,使得网站类型的识别率大大提高。
-
公开(公告)号:CN114064792A
公开(公告)日:2022-02-18
申请号:CN202111369333.8
申请日:2021-11-18
Applicant: 厦门市美亚柏科信息股份有限公司
IPC: G06F16/26 , G06F16/9537
Abstract: 本发明涉及一种时空伴随对象挖掘方法、终端设备及存储介质,该方法包括:接收用于时空伴随对象挖掘的数据,并对接收的所有数据进行两两分组,针对每一组数据均计算其属于时空伴随对象的综合置信度,根据综合置信度大小的排序确定每个数据对应的时空伴随对象。本发明通过对关联的时空离散度刻画,更能确定关联的可靠性,提高时空伴随对象挖掘的准确度,为使用者提供最可靠的线索,便于其迅速追踪目标多维最新动向,同时也为多维融合推荐打下良好基础。
-
公开(公告)号:CN114064792B
公开(公告)日:2025-03-21
申请号:CN202111369333.8
申请日:2021-11-18
Applicant: 厦门市美亚柏科信息股份有限公司
IPC: G06F16/26 , G06F16/9537
Abstract: 本发明涉及一种时空伴随对象挖掘方法、终端设备及存储介质,该方法包括:接收用于时空伴随对象挖掘的数据,并对接收的所有数据进行两两分组,针对每一组数据均计算其属于时空伴随对象的综合置信度,根据综合置信度大小的排序确定每个数据对应的时空伴随对象。本发明通过对关联的时空离散度刻画,更能确定关联的可靠性,提高时空伴随对象挖掘的准确度,为使用者提供最可靠的线索,便于其迅速追踪目标多维最新动向,同时也为多维融合推荐打下良好基础。
-
公开(公告)号:CN115048550A
公开(公告)日:2022-09-13
申请号:CN202210676652.1
申请日:2022-06-15
Applicant: 厦门市美亚柏科信息股份有限公司
IPC: G06F16/74 , G06F16/78 , G06F3/0354 , G06F3/0484
Abstract: 本发明提出了一种基于视频结构化技术的时空数据沉浸式交互的方法,该方法包括:选择关注的历史时间点以及空间位置;发起获取所述时间点前面时间段以及后面时间段的视频结构化时空数据源的请求;获取时空数据之间的时间差计算数据对象的步长,建立具有时间锚点属性的数据模型。通过运用web技术清晰地展示结构化对象的空间位置和时间顺序,结合分段函数和皮尔模型运算数据间的交互过渡因素,使高维时空下渲染对象间平滑过渡,使用户能快速带入实际场景沉浸交互,并能够快速定位到用户关注的空间点位和时间点,通过短时间的快速浏览捕捉重点结构化对象,跳过无效时间段,节约时间成本,快速锁定同一时空条件下的关联结构化对象,提高用户体验。
-
-
-
-
-
-
-
-
-