基于立体视觉的移动机器人局部路径规划
摘要 | 第6-7页 |
Abstract | 第7页 |
第1章 绪论 | 第10-15页 |
1.1 课题的研究意义 | 第10-11页 |
1.2 国内外研究现状 | 第11-13页 |
1.2.1 双目立体视觉 | 第11页 |
1.2.2 道路识别 | 第11-12页 |
1.2.3 路径规划 | 第12-13页 |
1.3 课题的主要工作与内容安排 | 第13-15页 |
第2章 移动机器人立体视觉系统组成 | 第15-24页 |
2.1 硬件系统 | 第15-19页 |
2.1.1 硬件系统框架 | 第15-16页 |
2.1.2 Pioneer-3 AT型移动机器人 | 第16-17页 |
2.1.3 Bumblebee双目立体摄像机 | 第17页 |
2.1.4 PTU-46-17.5二自由度云台 | 第17-18页 |
2.1.5 MIO-9290车载计算机 | 第18-19页 |
2.2 软件系统 | 第19-22页 |
2.2.1 机器人操作系统 | 第20-21页 |
2.2.2 软件分层设计 | 第21-22页 |
2.3 本章小结 | 第22-24页 |
第3章 立体图像处理 | 第24-44页 |
3.1 双目立体视觉 | 第24-28页 |
3.1.1 畸变消除 | 第24-26页 |
3.1.2 极线对齐 | 第26-27页 |
3.1.3 立体匹配 | 第27-28页 |
3.2 三维恢复 | 第28-32页 |
3.2.1 双目测距 | 第28-30页 |
3.2.2 点云数据 | 第30-31页 |
3.2.3 调整双目摄像机视野 | 第31-32页 |
3.3 移动机器坐标系 | 第32-33页 |
3.4 道路识别 | 第33-38页 |
3.4.1 行车车道模型约束 | 第33-34页 |
3.4.2 点云分割 | 第34-35页 |
3.4.3 简化数据 | 第35-37页 |
3.4.4 拟合行车道边缘 | 第37-38页 |
3.5 障碍物识别 | 第38-39页 |
3.6 车道线识别 | 第39-43页 |
3.6.1 HSV颜色空间 | 第40-42页 |
3.6.2 基于改进RANSAC算法识别车道线 | 第42-43页 |
3.7 本章小结 | 第43-44页 |
第4章 移动机器人局部路径规划 | 第44-54页 |
4.1 移动机器人运动学模型 | 第44-45页 |
4.2 基于行为的移动机器人局部路径规划 | 第45-50页 |
4.2.1 行为融合 | 第45-46页 |
4.2.2 沿路边趋向目标行为 | 第46-48页 |
4.2.3 基于动态栅格法的避障行为 | 第48-50页 |
4.3 实物实验 | 第50-53页 |
4.3.1 立体图像处理实物实验 | 第50-51页 |
4.3.2 移动机器人综合试验 | 第51-53页 |
4.4 本章小结 | 第53-54页 |
总结与展望 | 第54-56页 |
致谢 | 第56-57页 |
参考文献 | 第57-61页 |
攻读硕士学位期间发表的论文 | 第61页 |