-
公开(公告)号:CN111899033A
公开(公告)日:2020-11-06
申请号:CN202010658438.4
申请日:2020-07-09
Applicant: 西安交通大学
Abstract: 本发明公开了一种基于区块链和高光谱的物品数字身份构建系统和方法。该系统包括数字身份信息构建系统包括物品基础信息描述模块、物品高光谱无损质量检测模块、物品流转信息记录模块、联盟链管理模块。数字身份信息构建系统对接区块链平台,系统上各参与节点共同参与数字身份信息的建立和维护,以时间顺序不断增量式记录物品在生产、质检、流转、交易各个环节的具体信息,进而扩充物品数字身份信息,实现只可添加、不可篡改的操作。区块链平台上每一个节点信息共享,实现物品数字身份信息可溯源。本发明将高光谱快速、无损、多元化质量检测优势与区块链的可溯源优势结合,对物品质量信息的全周期溯源有重要意义。
-
公开(公告)号:CN111687885B
公开(公告)日:2022-02-11
申请号:CN202010496117.9
申请日:2020-06-03
Applicant: 西安交通大学
Abstract: 本发明公开了一种用于无序零件装配的智能双臂机器人系统及视觉引导方法,该系统采用3D视觉结构光装置对无序摆放的零件进行识别定位,并智能引导双臂机器人进行抓取和装配。3D视觉结构光装置通过可编程式DLP模块向零件投影相移条纹,并通过光耦转换模块触发双目工业相机同步采集图像,从而获取零件的高精度二维和三维数据;计算机根据零件的三维数据及CAD模型,可以计算出零件的六自由度位姿;视觉引导方法是通过手眼标定得出3D视觉结构光装置与双臂机器人的空间变换模型,并推导出装配过程中零件在任意位置下时双臂机器人的抓取姿态。本发明系统智能化和柔性化程度高,零件定位和装配精度高、速度快,灵活性强,可用于超精密装配等工业应用场景。
-
公开(公告)号:CN111862101A
公开(公告)日:2020-10-30
申请号:CN202010681588.7
申请日:2020-07-15
Applicant: 西安交通大学
Abstract: 本发明公开了一种鸟瞰图编码视角下的3D点云语义分割方法,该方法对于输入的3D点云,通过一种基于体素的编码方式将其转换到鸟瞰图视角下,并通过一种简化的PointNet网络提取每个体素的特征,将其转换成可以直接利用2D卷积网络处理的特征图,并利用通过分解卷积和空洞卷积重构的残差模块组成的全卷积网络结构处理编码后的特征图,得到端到端的像素级语义分割结果,能够加速点云网络语义分割,在硬件受限的情况下达到高精度实时大场景下的点云分割任务。本发明可以直接用于机器人、无人驾驶和无序抓取等任务,且由于该方法在编码方式和网络结构上的设计,使得在拥有高精度点云语义分割的同时,系统开销更小,更加适合机器人和无人驾驶等硬件受限的场景。
-
公开(公告)号:CN111899033B
公开(公告)日:2024-04-16
申请号:CN202010658438.4
申请日:2020-07-09
Applicant: 西安交通大学
Abstract: 本发明公开了一种基于区块链和高光谱的物品数字身份构建系统和方法。该系统包括数字身份信息构建系统包括物品基础信息描述模块、物品高光谱无损质量检测模块、物品流转信息记录模块、联盟链管理模块。数字身份信息构建系统对接区块链平台,系统上各参与节点共同参与数字身份信息的建立和维护,以时间顺序不断增量式记录物品在生产、质检、流转、交易各个环节的具体信息,进而扩充物品数字身份信息,实现只可添加、不可篡改的操作。区块链平台上每一个节点信息共享,实现物品数字身份信息可溯源。本发明将高光谱快速、无损、多元化质量检测优势与区块链的可溯源优势结合,对物品质量信息的全周期溯源有重要意义。
-
公开(公告)号:CN111687885A
公开(公告)日:2020-09-22
申请号:CN202010496117.9
申请日:2020-06-03
Applicant: 西安交通大学
Abstract: 本发明公开了一种用于无序零件装配的智能双臂机器人系统及视觉引导方法,该系统采用3D视觉结构光装置对无序摆放的零件进行识别定位,并智能引导双臂机器人进行抓取和装配。3D视觉结构光装置通过可编程式DLP模块向零件投影相移条纹,并通过光耦转换模块触发双目工业相机同步采集图像,从而获取零件的高精度二维和三维数据;计算机根据零件的三维数据及CAD模型,可以计算出零件的六自由度位姿;视觉引导方法是通过手眼标定得出3D视觉结构光装置与双臂机器人的空间变换模型,并推导出装配过程中零件在任意位置下时双臂机器人的抓取姿态。本发明系统智能化和柔性化程度高,零件定位和装配精度高、速度快,灵活性强,可用于超精密装配等工业应用场景。
-
公开(公告)号:CN111536902B
公开(公告)日:2021-03-09
申请号:CN202010322971.3
申请日:2020-04-22
Applicant: 西安交通大学
Abstract: 本发明公开了一种基于双棋盘格的振镜扫描系统标定方法,使用的标定装置为两块规格相同、以一定角度相互固定的棋盘格标定板。该方法首先使用摄像机拍摄若干不同姿态下的标定装置图像,使用图像分割算法对同一图像中的两块标定板进行分割,再根据张正友标定法标定得到摄像机的内参数与外参数。然后保持标定装置的最后一个姿态不变,通过控制振镜镜片转动与摄像机曝光采集图像,获得不同光平面下投射到两块标定板上的激光条纹图像。通过图像处理与计算得到的高精度标定点拟合得到光平面方程,最终获得振镜坐标系与相机坐标系之间的刚体变换,实现振镜扫描系统的整体标定。本发明所需的标定装置容易获得,且标定步骤简单,速度较快,精度较高。
-
公开(公告)号:CN111536902A
公开(公告)日:2020-08-14
申请号:CN202010322971.3
申请日:2020-04-22
Applicant: 西安交通大学
Abstract: 本发明公开了一种基于双棋盘格的振镜扫描系统标定方法,使用的标定装置为两块规格相同、以一定角度相互固定的棋盘格标定板。该方法首先使用摄像机拍摄若干不同姿态下的标定装置图像,使用图像分割算法对同一图像中的两块标定板进行分割,再根据张正友标定法标定得到摄像机的内参数与外参数。然后保持标定装置的最后一个姿态不变,通过控制振镜镜片转动与摄像机曝光采集图像,获得不同光平面下投射到两块标定板上的激光条纹图像。通过图像处理与计算得到的高精度标定点拟合得到光平面方程,最终获得振镜坐标系与相机坐标系之间的刚体变换,实现振镜扫描系统的整体标定。本发明所需的标定装置容易获得,且标定步骤简单,速度较快,精度较高。
-
公开(公告)号:CN107639620A
公开(公告)日:2018-01-30
申请号:CN201710910785.X
申请日:2017-09-29
Applicant: 西安交通大学
Abstract: 本发明公开了一种机器人的控制方法、体感交互装置以及机器人,控制方法包括:体感交互装置采集目标人体肢体关节的转动角度,对采集到的角度信息进行计算,对目标人体的姿态或动作进行分析识别;根据获取到的分析识别结果产生对应的体感交互指令;将体感交互指令发送至机器人,机器人执行体感交互指令;同时机器人采集自己周围环境信息,例如指尖压力信息和周身图像信息,通过体感交互装置反馈给目标人体。通过上述方式不仅突破了传统的对机器人的控制方式,而且通过触觉反馈的方式还有3D图像的显示,在大程度的让使用者得到沉浸式的操作体验。随之而得到的不仅仅是方便的操作和大大降低的操作失误率,同时也给用户带来了更为生动的操作体验。
-
-
-
-
-
-
-