-
公开(公告)号:CN114314350B
公开(公告)日:2022-07-08
申请号:CN202210196700.7
申请日:2022-03-02
Applicant: 聚时科技(江苏)有限公司
Abstract: 本发明提出了一种用于自动行车吊具摆角定位的自动标定方法,通过相机拍摄吊具获取相机连续图像帧;通过计算图片边缘后的平均值得到图像帧的清晰度,确定相机焦距和起升高度是否正确;收集吊具的真实图片数据生成训练集,通过基于卷积神经网络对训练集进行数据处理,得到包含吊具的滑轮组特征信息的特征图,同时输出吊具的滑轮组的实际检测位置;将连续图像帧的数据存成数据序列;采用基于lstm的预测性生成lstm网络对数据序列进行处理得到吊具的摆角数据;根据摆角数据计算相机位置偏差,识别出的吊具特征置信度判断,计算相机位置偏差是否有效并修正更新标定值。
-
公开(公告)号:CN114638972A
公开(公告)日:2022-06-17
申请号:CN202210285694.2
申请日:2022-03-22
Applicant: 聚时科技(江苏)有限公司
Abstract: 本发明提出一种基于自动行车远控系统的视频预测方法,包括如下步骤,通过相机拍摄获取原始图像并进行解码;收集相机获取的原始图像数据生成训练集;利用训练集训练MCNet模型并通过MCNet模型对训练集进行数据处理;将预测图像中吊具的位置信息作为loss函数中的一项,在MCNet模型的主干网络后增加多层全连接层输出吊具的位置信息,并在MCNet模型更新时增加吊具回归Loss函数;对当前所用MCNet模型进行复制得到镜像的MCNet模型;以前一个历史帧的原始图像为训练数据进行小步长训练;以倒数第二个历史帧的原始图像作为训练数据的验证数据对其进行性能验证,若验证数据的精度更高,则MCNet模型接受更新优化;否则,则MCNet模型的网络各权重保持不变;将预测图像制视频流并发布。
-
公开(公告)号:CN114241269A
公开(公告)日:2022-03-25
申请号:CN202210150634.X
申请日:2022-02-18
Applicant: 聚时科技(江苏)有限公司
IPC: G06V10/774 , G06K9/62 , G06N3/08 , G06T7/80
Abstract: 本发明涉及视觉融合定位技术领域,尤其涉及一种用于岸桥自动控制的集卡视觉融合定位系统,检测模块将相机获取的图片输入到训练好的Yolo v5s模型,完成集卡和集装箱的识别检测,并输出目标物类型和车头方向,同时输出目标物在图像中的位置;定位模块针对目标物特征的差异性,分别设计有效的定位算法;标定模块将标定相机与激光的坐标转换关系,将图像中的目标物ROI映射到点云数据中,提取目标物点云;并标定激光与桥吊的坐标转换关系,将目标物的定位数据转换到桥吊坐标系下。本发明可以提高检测与定位精度,将定位频率大大提升,同时有效地提升了算法对残缺点云的定位精度。
-
公开(公告)号:CN113902765A
公开(公告)日:2022-01-07
申请号:CN202111508151.4
申请日:2021-12-10
Applicant: 聚时科技(江苏)有限公司
Abstract: 本发明属于半导体缺陷检测与图像处理技术领域,具体涉及一种基于全景分割的半导体自动分区方法,本方法基于全景分割网络,首先收集若干产品的模板数据作为全景分割网络的训练数据,模板数据包含模板图片和mask图片;将mask图片中材质定义为stuff,在模板图片上任意位置生成随机大小的颜色块,并将颜色块映射到mask图片上定义为things;其次采用训练数据训练全景分割网络,得到可以进行半导体自动分区建模的全景分割网络。将带分区图片输入该全景分割网络即可得到分区模板,该方法可以解决传统分区方案中调参繁琐、结构适应性弱、分区耗时等问题。
-
公开(公告)号:CN112991372B
公开(公告)日:2021-10-22
申请号:CN202110430415.2
申请日:2021-04-21
Applicant: 聚时科技(江苏)有限公司
Abstract: 本发明具体公开了一种基于多边形匹配的2D‑3D相机外参标定方法,通过标定板提取构造图像的2D多边形与3D多边形信息,并将边分别对应,计算2D点到直线的距离,通过最小化全局损失函数,得到2D相机与3D相机之间的外参。本发明提供的2D‑3D相机外参标定方法相比于特征点的2D‑3D相机标定方法,直线特征代替点特征,大大提高图像数据的特征检测精度。
-
公开(公告)号:CN112686341B
公开(公告)日:2021-07-30
申请号:CN202110270283.1
申请日:2021-03-12
Applicant: 聚时科技(江苏)有限公司
Abstract: 本发明涉及计算机视觉技术领域,尤其涉及一种基于层数自适应卷积神经网络的图像分类方法,包括输入模块、基础网络模块、层数自适应网络模块和输出模块,通过获取数据图像并为其分配标签、搭建基于层数自适应的神经网络模块、设定训练参数、训练神经网络和测试神经网络等步骤来得到一个基于层数自适应的卷积神经网络,即设计一个每个类别只共享少量底层特征,而各自都具有自己独立高层结构的分类网络,来达到使用同一个卷积神经网络来将实际应用场景中产生的批量图像中包含的所有图像类别都完成分类的目的。
-
公开(公告)号:CN112598085B
公开(公告)日:2021-07-30
申请号:CN202110227595.4
申请日:2021-03-02
Applicant: 聚时科技(江苏)有限公司
IPC: G06K9/62
Abstract: 本发明涉及一种支持混合模型融合的Model Ensemble方法,两个模型的输出均包括实例框和类别分布,分别对两个实例框和两个类别分布进行加权融合,对加权融合后的输出去重获得唯一的模型融合输出。当两个模型中有一个分类模型时,将该分类模型的输出改造成检测模型输出,用“检测模型的实例框+分类模型的类别分布”来构造一个虚拟的检测模型输出。本方法不限于分类模型融合,可以融合不同AI模型。
-
公开(公告)号:CN112598744A
公开(公告)日:2021-04-02
申请号:CN202110227668.X
申请日:2021-03-02
Applicant: 聚时科技(江苏)有限公司
Abstract: 一种发动机气门抓取点的定位方法,获取3D点云以及对应的2D图像;通过3D点云以及整体斜框用斜框滤波来获取整体3D点云,对整体3D点云进行区域生长聚类,通过对区域生长聚类平滑度参数的调整将汽车发动机气门分割开;对杆部的3D点云进行图像PCA处理获得抓取点的位置和姿态;根据整体斜框以及顶部斜框确定对应的顶部斜框,通过斜框滤波得到顶部的3D点云计算顶部3D点云的重心获得汽车发动机气门的顶部重心点;将获取顶部重心点投影到初始的抓取点姿态的x向量上获得顶部重心的投影点,确定初始的抓取点姿态的x向量的方向;根据初始的抓取点姿态的x向量以及z轴计算初始的抓取点姿态的y向量;利用x向量和y向量确定初始的抓取点姿态的z向量。
-
公开(公告)号:CN112598085A
公开(公告)日:2021-04-02
申请号:CN202110227595.4
申请日:2021-03-02
Applicant: 聚时科技(江苏)有限公司
IPC: G06K9/62
Abstract: 本发明涉及一种支持混合模型融合的Model Ensemble方法,两个模型的输出均包括实例框和类别分布,分别对两个实例框和两个类别分布进行加权融合,对加权融合后的输出去重获得唯一的模型融合输出。当两个模型中有一个分类模型时,将该分类模型的输出改造成检测模型输出,用“检测模型的实例框+分类模型的类别分布”来构造一个虚拟的检测模型输出。本方法不限于分类模型融合,可以融合不同AI模型。
-
公开(公告)号:CN112462373A
公开(公告)日:2021-03-09
申请号:CN202110141999.1
申请日:2021-02-02
Applicant: 聚时科技(江苏)有限公司
Abstract: 本发明涉及一种基于多传感器融合的船舱位检测方法,在吊具的小车上安装激光雷达和相机,其中通过相机获取图像,识别图像中的集装箱,以及该集装箱的箱型和箱号信息,并获取图像中集装箱位置的像素坐标;通过激光雷达获取点云,将点云坐标变换为像素坐标,比较图像中的集装箱像素坐标和点云的像素坐标,将集装箱的点云从环境点云中分割出来;计算集装箱点云的质心坐标,通过小车的位置信息将质心坐标对应到世界坐标系中获得对应的世界坐标,将集装箱的箱型和箱号信息赋予这个集装箱点云。本方法采用多传感器数据融合的方法进行船舱位检测,结合激光雷达定位准确和相机更丰富的语义信息,从而使得船舱位检测可以应对更复杂的情况。
-
-
-
-
-
-
-
-
-