摘要 | 第6-7页 |
Abstract | 第7-8页 |
第1章 绪论 | 第12-21页 |
1.1 引言 | 第12-13页 |
1.2 国内外研究现状和意义 | 第13-19页 |
1.3 论文的主要内容和创新点 | 第19-20页 |
1.4 论文的结构安排 | 第20-21页 |
第2章 UGV-1 型移动机器人系统结构及车载传感器概述 | 第21-35页 |
2.1 UGV-1 型移动机器人的车体结构 | 第21-22页 |
2.2 UGV-1 型移动机器人的驱动系统及运动学原理 | 第22-26页 |
2.2.1 驱动系统 | 第22-23页 |
2.2.2 运动学原理 | 第23-26页 |
2.3 UGV-1 型移动机器人车载传感器概述 | 第26-33页 |
2.3.1 双目视觉系统 | 第27-29页 |
2.3.2 超声波传感器 | 第29-31页 |
2.3.3 激光测距仪 | 第31-33页 |
2.4 UGV-1 型移动机器人感知系统的组成 | 第33-34页 |
2.5 本章小结 | 第34-35页 |
第3章 移动机器人的双目视觉及环境重建 | 第35-56页 |
3.1 双目相机标定 | 第35-46页 |
3.1.1 双目立体视觉原理 | 第35-36页 |
3.1.2 图像坐标系、摄像机坐标系和世界坐标系 | 第36-38页 |
3.1.3 摄像机标定模型 | 第38-39页 |
3.1.4 基于双目测量测试开发平台的标定方法 | 第39-43页 |
3.1.5 双目相机标定过程及实验结果 | 第43-46页 |
3.2 图像匹配 | 第46-50页 |
3.2.1 图像匹配基本原理 | 第46-47页 |
3.2.2 一种基于极线校正逆变换的立体匹配算法 | 第47-50页 |
3.3 环境三维重建 | 第50-55页 |
3.3.1 基本的三维坐标求取方法 | 第50-52页 |
3.3.2 基于最小二乘法的三维重建 | 第52-53页 |
3.3.3 三维重建的实验结果 | 第53-55页 |
3.4 本章小结 | 第55-56页 |
第4章 基于视觉信息融合的移动机器人环境感知与避障 | 第56-70页 |
4.1 多传感器数据融合原理 | 第56-57页 |
4.2 多传感器数据融合算法 | 第57-58页 |
4.3 一种改进的人工神经网络信息融合算法 | 第58-68页 |
4.3.1 改进的学习率自适应BP神经网络信息融合算法原理 | 第58-62页 |
4.3.2 融合视觉信息的环境感知与避障方法设计 | 第62-65页 |
4.3.3 机器人自主避障的仿真与实验结果分析 | 第65-68页 |
4.4 本章小结 | 第68-70页 |
第5章 移动机器人的地形识别与可通过性评估 | 第70-83页 |
5.1 地形特征 | 第70-75页 |
5.1.1 地形起伏度 | 第70-71页 |
5.1.2 地形坡度 | 第71-72页 |
5.1.3 地形纹理特征 | 第72-74页 |
5.1.4 颜色特征 | 第74-75页 |
5.2 地形识别 | 第75-78页 |
5.2.1 地形分析 | 第75页 |
5.2.2 道路纹理信息提取 | 第75-77页 |
5.2.3 图像颜色信息提取及识别结果 | 第77-78页 |
5.3 地形可通过性评估分析 | 第78-80页 |
5.4 实验结果与分析 | 第80-82页 |
5.5 本章小结 | 第82-83页 |
结论 | 第83-85页 |
参考文献 | 第85-90页 |
攻读硕士学位期间发表论文及科研成果 | 第90-91页 |
致谢 | 第91-92页 |