摘要
随着社会的发展,智能化的机器走向人们的视野,其极大地提高了人们的工作效率,帮助人们创造更大的社会财富。诸如工业机器人、导游机器人等等。但这些机器人存在工作环境单一的问题,一旦脱离预定的工作环境便会失去工作能力。本文基于可移动平台,搭建可以进行自主移动、自主夹取物品的机器人视觉感知系统。该系统采用单目相机定位技术,通过开源数据库OpenCV对相机获得的数据进行处理。视觉感知系统旨在获取机器人以及物品的位姿,位姿提取通过人工标识Aruco码,将Aruco码粘贴于机器人和物品上,通过提取Aruco码的二维X,Y坐标以及转角确定机器人与物品的位姿。其中对X,Y坐标的提取提出了两种方法,一种采用Aruco码的Marker返回的相对于相机的平移矩阵求解;一种采用像素坐标系向相机坐标系的映射关系求解,并比较了两者的准确性与稳定性。两种方法均能有效得计算出X,Y坐标,且后者计算的结果更符合真实值也更加稳定。对转角的提取提出了采用Marker坐标系与相机坐标系之间的旋转向量R来求解的方法。通过对罗德里格斯公式的展开,求解出转角。通过大量重复性的实验,该定位算法能够准确地返回机器人位姿信息,拓展了机器人定位技术方案的可能,对定位方法的研究有一定的参考意义。
关键词:室内机器人定位、单目相机、Aruco码、位姿提取
Abstract
With the development of society, intelligent machines have more and more common, which has greatly improved people's work efficiency and helped people create greater social wealth. Such as industrial robots, tour guide robots, etc. However, these robots can only work in a single environment, and it will lose their ability once they leave the intended working environment. Based on the mobile platform, this article builds a visual perception system for robots that can move autonomously and grab items autonomously. The system uses monocular camera positioning technology and processes the data through the open source database OpenCV. The visual perception system aims to obtain the pose of the robot and the item. The pose is extracted by artificial identifying the Aruco code, the Aruco code is pasted on the robot and the item, and the robot and the item are determined by extracting the two-dimensional X, Y coordinates of the Aruco code and the corner Posture. Among them, two methods are proposed for the extraction of X and Y coordinates, one using the translation matrix relative to the camera returned by the Marker of Aruco code, and one using the mapping relationship between the pixel coordinate system and the camera coordinate system, and comparing the two Accuracy and stability. Both methods can effectively calculate the X and Y coordinates, and the result of the latter calculation is more consistent with the real value and more stable. For the extraction of the rotation angle, a method of solving the rotation vector R between the Marker coordinate system and the camera coordinate system is proposed. By expanding the Rodriguez formula, the rotation angle is solved. Through a large number of repetitive experiments, the positioning algorithm can accurately return the robot pose information, which expands the possibility of robot positioning technology solutions, and has certain reference significance for the study of positioning methods.
Key Words:Indoor robot location, monocular camera, Aruco code, pose extraction
目录
摘要I
Abstract II
目录III
第1章绪论1
1.1背景及意义1
1.2国内外研究现状1
1.3研究思路与章节安排3
第2章可移动搬运机器人实验平台搭建4
2.1技术路线4
2.2机器人结构5
2.2.1底盘5
2.2.2机械臂6
2.3图像采集系统7
2.3.1相机选型7
2.3.2平台软件环境搭建8
2.4本章小结8
第3章相机成像模型9
3.1成像模型概述9
3.2相机标定9
3.2.1单目相机成像模型9
3.2.2相机标定方法9
3.2.3棋盘检测12
3.3本章小结13
第4章目标定位以及机器人移动路线规划14
4.1室内机器人定位方案概述14
4.2机器人定位技术14
4.2.1机器人识别14
4.2.2机器人位姿估计16
4.3物品定位技术21
4.4机器人移动路线规划22
4.5本章小结24
第5章总结与展望25
5.1本文结论25
5.2研究展望25
致谢26
参考文献27
附录A 28
附录B 34
第1章绪论
1.1背景及意义
在过去半个世纪里,信息处理与人工智能等领域取得了突破性进展,为机器人领域的发展夯实了基础。在现代化车间中机器人广泛应用于精度要求高、重复性高、危险系数等场景。伴随技术的进步,人类平均寿命延长,人口老龄化加剧,人们对机器人的期望远不停留在工厂中。这使得国内外更多学者投入到机器人领域的研究中。根据机器人工作场景不同,大致可以分为固定式机器人与移动机器人。传统的工业机器人便是固定式机器人,该类机器人常被固定在机座上,工作范围受限于安装位置和机械臂长度。目前广泛应用的物流机器人便是移动机器人,其运动范围相较于固定式机器人有了显着的提高,可执行的任务也更加丰富。在今年新冠肺炎的援助工作中机器人在仓库管理,物品搬运等工作中协助人类一起战“疫”。但目前机器人运输工程还不能实现完全的无人化,其中物品的装载、转运过程中由于技术以及成本等原因往往依靠人工进行。为解决以上问题,本文拟采用较低成本的移动底盘加机械臂的结构,来实现装载、转运。但此种机器人运行环境往往非结构化且运行场景多样,这就要求机器人具备相当的智能化水平和更强的适应性。要实现这些目标,移动机器人的开发所涉及的技术十分复杂,其中定位技术、导航技术、机械臂控制技术是实现智能化的关键,而这些无不和机器人视觉感知系统息息相关。本文将针对移动式搬运机器人的视觉感知系统,运用机器视觉进行研究,以实现机器人的精确定位、抓取、放置工作。
零件图5 -大手臂左侧板
零件图6 -大手臂右侧板
零件图8 -电机3左夹板
零件图9 -小臂左侧板
零件图10 -小臂右侧板
总装配图