面向移动机器人的多摄像头拼接技术研究
| 摘要 | 第5-6页 |
| ABSTRACT | 第6页 |
| 第1章绪论 | 第10-18页 |
| 1.1 机器人视觉概述 | 第10-11页 |
| 1.2 拼接技术概述 | 第11-12页 |
| 1.3 国内外研究现状 | 第12-14页 |
| 1.4 研究意义与应用前景 | 第14-15页 |
| 1.5 研究内容 | 第15-16页 |
| 1.6 论文结构介绍 | 第16-18页 |
| 第2章拼接方法介绍 | 第18-26页 |
| 2.1 图像拼接流程 | 第18页 |
| 2.2 图像配准介绍 | 第18-20页 |
| 2.2.1 图像配准的实现要素 | 第18-19页 |
| 2.2.2 图像配准方法介绍 | 第19-20页 |
| 2.3 图像融合分析 | 第20-21页 |
| 2.4 多摄像头拼接介绍 | 第21-24页 |
| 2.4.1 视觉系统中的坐标 | 第21-22页 |
| 2.4.2 投影模型介绍 | 第22-23页 |
| 2.4.3 多图像合成方法 | 第23-24页 |
| 2.5 本章小结 | 第24-26页 |
| 第3章几种常用视频拼接算法实时性分析 | 第26-42页 |
| 3.1 三种算法简要介绍 | 第26-32页 |
| 3.1.1 Harris算法实现过程及分析 | 第26-27页 |
| 3.1.2 Sift算法实现过程及分析 | 第27-28页 |
| 3.1.3 Surf算法实现过程及分析 | 第28-32页 |
| 3.2 实验场景 | 第32-33页 |
| 3.3 几种算法实时性分析 | 第33-35页 |
| 3.4 选取实时性最好的算法进行改进 | 第35-38页 |
| 3.5 对改进的SURF算法进行分析 | 第38-40页 |
| 3.6 本章小结 | 第40-42页 |
| 第4章视频实时拼接步骤及试验 | 第42-52页 |
| 4.1 视频拼接流程 | 第42页 |
| 4.2 特征点匹配 | 第42-44页 |
| 4.3 图像融合的改进和分析 | 第44-46页 |
| 4.4 机器人应用场景及拼接实验结果分析 | 第46-51页 |
| 4.4.1 机器人应用场景 | 第46-48页 |
| 4.4.2 图像拼接效果分析 | 第48-49页 |
| 4.4.3 多摄像头拼接效果分析 | 第49-51页 |
| 4.5 本章小结 | 第51-52页 |
| 第5章总结和展望 | 第52-54页 |
| 5.1 工作总结 | 第52页 |
| 5.2 工作展望 | 第52-54页 |
| 参考文献 | 第54-58页 |
| 攻读硕士期间已发表的论文 | 第58-60页 |
| 致谢 | 第60-61页 |