1.2 自定位
在RoboCup 比赛中, 移动机器人自定位是指机 器人确定其在比赛场中的全局坐标和姿态(前进方 向与假定坐标轴的夹角)。 机器人球员的决策很大程 度上取决于其在场上的位置, 因此自定位的成功与 否直接决定了机器人能否有效地完成赋予它的任 务。 由于机器人移动机构打滑、制造误差等原因, 其 自身携带的基于码盘的里程仪无法提供精确的位置 信息, 必须依靠机器人的外部传感器进行环境的感 知和特征匹配, 以实现较高精度的定位。 但无论是里 程仪还是其他传感器, 在快速变化的比赛现场获得 的数据都具有高度的不确定性, 如何在这些不确定 信息的基础上进行推理、判断, 始终是困扰移动机器 人的一个主要难题, 在机器人足球比赛中更是十分突出。
目前, 足球机器人定位主要采用视觉、超声、红外和激光等传感器。 常用的方法有两类:一类是通过识别标志来自定位;另一类是通过多传感器信息匹 配来自定位。
第1 类方法需要用视觉来实现。 它的基本原理 是将视觉的输入信息与事先定义的标志的颜色特征 相比较,通过计算与已知标志位置的相对位置关系 来推算出机器人自身的全场绝对坐标。 例如,意大利 ART 队的守门员通过视觉来实现自定位。 它使用两 个摄像头, 可分别获得守门员左右两边罚球区的边 线信息,通过几何计算,机器人可以确定自身的位置。 但是,机器人在足球场上经常处于运动状态,视觉信息中的噪声很大,这样,对视觉定位的抗干扰能 力提出了很高的要求。
第2 类方法的基本原理是将包括视觉的多种传 感器的感知进行信息融合,来克服单一传感器解决 不确定性信息的弱点,提高机器人的定位准确性。例如,德国弗赖堡大学队就采用此方法。首先,机器人从激光扫描仪得到的信息中提取直线段信息, 将此 信息与事先建好的球场模型相匹配来确定场地的边界。然后,结合里程仪的信息,通过卡尔曼滤波算法进行数据融合, 最终得到了机器人准确的全局位置 信息。 Iocch i[ 4 ]提出了一种比较通用的方法, 即机器 人利用传感器(视觉、声纳或激光) 提供的距离信息,通过霍夫变换提取出直线信息,然后将这些直线信 息与已知的RoboCup 比赛的环境模型相比较来确 定机器人的方位。
目前,机器人自定位的发展方向是在保持精确 性的前提下提高快速性和鲁棒性,通过协作式定位来纠正已有的错误定位也是一个值得注意的方向。
1.3 实时视觉
在RoboCup 的比赛环境中, 大部分的物体都是 通过颜色来区分的, 因此大多数的球队利用视觉来 识别物体, 进而标定位置。 但是, 动态比赛环境对视 觉的处理提出了很大的挑战。 一方面, 视觉的信息量 比较大, 而且动态的比赛环境使得视觉信息中含有 很大的噪声, 再加上场上的物体之间会相互遮挡, 造 成颜色之间的干扰。 另一方面, 在激烈的比赛中, 机 器人必须在很短的时间内(一般为100 m s) 做出决 策。 因此, 实时的视觉处理是一项非常关键的技术。 常用的视觉传感器大致可以分为: 全局视觉、单个摄 像机视觉、双摄像机视觉(立体视觉) 和全方位视觉 系统。
全局视觉系统是指采用全局静态彩色摄像机作为外部传感器, 并对移动机器人附加着色标记, 通过识别唯一的颜色特征完成定位。 此法虽然简单, 但不符合中型组比赛的要求, 只能用于小型组的比赛中。 单个摄像机视觉系统的几何特性相对简单, 如果不 考虑镜头所引起的图像畸变, 就可以把该模型简化为理想针孔式模型(透视投影) , 如图3 所示。这种模 型被大多数参赛队所采用。 例如, 德国弗赖堡大学队 的机器人使用单个摄像机来识别球的颜色, 它先粗 略地对球的位置进行标定, 然后通过多个机器人对 球的标定来校正球的位置。 双摄像机视觉模型主要 是用于获得物体的深度信息, 但它需要对图像进行 融合, 占用的处理时间较多, 而且在中型组比赛中并 不是很有用, 因此很少有参赛队采用。 全方位视觉传 感器系统是采用反射镜反射全方位环境, 然后输入到单镜头摄像机进行处理。 它的优点是可以获得全 方位的视觉信息。 例如, 机器人可以同时看到球和球 门, 因此这种视觉传感器系统为很多参赛队采用。 例 如, 意大利ART 队和日本大阪大学队都自行设计 了全方位视觉传感器系统。