RoboCup中型组机器人全景视觉系统设计与实现
目录 | 第1-5页 |
摘要 | 第5-6页 |
ABSTRACT | 第6-7页 |
第一章 绪论 | 第7-11页 |
1.1 课题研究背景和意义 | 第7页 |
1.2 RoboCup中型组足球机器人系统简介 | 第7-8页 |
1.3 全景视觉技术的发展 | 第8-9页 |
1.4 课题研究的主要内容 | 第9-11页 |
第二章 全向反射镜设计与实现 | 第11-27页 |
2.1 全景视觉系统成像的基本原理 | 第11-16页 |
2.1.1 单视点成像的基本原理 | 第11-13页 |
2.1.2 全景视觉系统的分辨率 | 第13-15页 |
2.1.3 目标点与全景图的像素点之间的对应关系 | 第15-16页 |
2.2 全向反射镜成像效果仿真 | 第16-23页 |
2.2.1 锥形镜面 | 第17页 |
2.2.2 球形镜面 | 第17-18页 |
2.2.3 椭球线镜面 | 第18-19页 |
2.2.4 双曲线镜面 | 第19页 |
2.2.5 抛物线镜面 | 第19-20页 |
2.2.6 组合全向反射镜镜面设计 | 第20-23页 |
2.2.7 仿真结果比较 | 第23页 |
2.3 全向反射镜设计与实现及镜头参数选择 | 第23-27页 |
2.3.1 双曲线镜面设计 | 第23-24页 |
2.3.2 镜面加工 | 第24-25页 |
2.3.3 固定装置的设计 | 第25-26页 |
2.3.4 镜面设计上存在的问题及解决办法 | 第26-27页 |
第三章 图像处理软件设计与实现 | 第27-39页 |
3.1 颜色标定 | 第27-32页 |
3.1.1 采集场地图像 | 第27-28页 |
3.1.2 颜色模型空间的选择 | 第28-31页 |
3.1.3 手动颜色标定 | 第31-32页 |
3.1.4 自动颜色标定 | 第32页 |
3.2 区域分割 | 第32-35页 |
3.2.1 利用游程长度编码进行区域分割 | 第32-34页 |
3.2.2 区域属性计算 | 第34页 |
3.2.3 基于密度的区域合并 | 第34-35页 |
3.3 特征提取 | 第35-39页 |
3.3.1 特征区域标注 | 第35-37页 |
3.3.2 对干扰的处理 | 第37页 |
3.3.3 结果分析 | 第37-39页 |
第四章 基于全景视觉的机器人自定位方法 | 第39-58页 |
4.1 距离标定 | 第39-42页 |
4.1.1 基本原理 | 第39-40页 |
4.1.2 插值函数 | 第40-41页 |
4.1.3 标定结果 | 第41-42页 |
4.2 利用特征点定位 | 第42-49页 |
4.2.1 世界坐标系和体坐标系之间的对应关系 | 第43页 |
4.2.2 利用两个特征点定位 | 第43-45页 |
4.2.3 利用多个特征点定位 | 第45-47页 |
4.2.4 实验结果分析与定位方法改进 | 第47-49页 |
4.3 利用白线进行机器人自定位 | 第49-52页 |
4.3.1 Hough变换算法 | 第49-50页 |
4.3.2 自定位方法步骤 | 第50-51页 |
4.3.3 定位结果 | 第51-52页 |
4.4 Monte—Carlo定位方法 | 第52-54页 |
4.4.1 基本原理 | 第52-53页 |
4.4.2 在RoboCup环境中的应用 | 第53-54页 |
4.5 基于全景视觉的各种定位方法比较 | 第54-55页 |
4.6 对机器人的位置进行滤波和预测 | 第55-58页 |
4.6.1 Kalman滤波 | 第55页 |
4.6.2 实验结果比较 | 第55-58页 |
结论与展望 | 第58-60页 |
致谢 | 第60-61页 |
参考文献 | 第61-62页 |