基于多信息融合的移动机器人定位技术研究
摘要 | 第5-6页 |
ABSTRACT | 第6-7页 |
符号对照表 | 第11-12页 |
缩略语对照表 | 第12-15页 |
第一章 绪论 | 第15-19页 |
1.1 研究背景及意义 | 第15-16页 |
1.2 国内外研究现状 | 第16-18页 |
1.3 本文主要内容及章节安排 | 第18-19页 |
第二章 移动机器人系统平台设计 | 第19-27页 |
2.1 系统总体设计 | 第19-20页 |
2.2 系统硬件平台 | 第20-22页 |
2.2.1 移动机器人平台 | 第20页 |
2.2.2 嵌入式开发板 | 第20-21页 |
2.2.3 电机驱动/控制器 | 第21页 |
2.2.4 双目视觉模块 | 第21-22页 |
2.3 系统软件平台 | 第22-26页 |
2.3.1 无线局域网搭建 | 第22-23页 |
2.3.2 嵌入式网络编程 | 第23-25页 |
2.3.3 双目视觉信息获取 | 第25-26页 |
2.3.4 系统客户端控制界面 | 第26页 |
2.4 本章小结 | 第26-27页 |
第三章 移动机器人双目立体视觉系统 | 第27-39页 |
3.1 摄像机模型 | 第27-33页 |
3.1.1 摄像机参考坐标系 | 第27-29页 |
3.1.2 坐标系之间的转换 | 第29-30页 |
3.1.3 双目视觉模型 | 第30-32页 |
3.1.4 畸变模型 | 第32-33页 |
3.2 摄像机标定 | 第33-38页 |
3.2.1 摄像机标定方法 | 第33-34页 |
3.2.2 双目视觉标定原理 | 第34页 |
3.2.3 摄像机标定实验 | 第34-38页 |
3.3 本章小结 | 第38-39页 |
第四章 双目立体视觉测距系统 | 第39-55页 |
4.1 基于SIFT的特征提取 | 第39-42页 |
4.2 立体匹配 | 第42-44页 |
4.2.1 立体匹配算法分类 | 第42-43页 |
4.2.2 双目视觉的极线几何 | 第43-44页 |
4.2.3 SIFT特征向量匹配 | 第44页 |
4.3 图像特征提取与匹配 | 第44-46页 |
4.3.1 算法概述 | 第44-45页 |
4.3.2 目标区域选定 | 第45页 |
4.3.3 目标匹配点的选取过程 | 第45-46页 |
4.4 实验结果及分析 | 第46-53页 |
4.4.1 基于SIFT算子的不变性的特征匹配 | 第46-47页 |
4.4.2 双目立体视觉测距实验 | 第47-50页 |
4.4.3 目标距离测量实验 | 第50-53页 |
4.5 本章小结 | 第53-55页 |
第五章 双目立体视觉与里程计融合定位技术研究 | 第55-63页 |
5.1 引言 | 第55页 |
5.2 扩展卡尔曼滤波的具体实现 | 第55-56页 |
5.3 双目立体视觉与里程计信息融合的定位 | 第56-60页 |
5.3.1 定位算法研究 | 第56-57页 |
5.3.2 定位实验仿真结果 | 第57-60页 |
5.4 误差分析 | 第60-61页 |
5.5 本章小结 | 第61-63页 |
第六章 总结与展望 | 第63-65页 |
6.1 总结 | 第63-64页 |
6.2 展望 | 第64-65页 |
参考文献 | 第65-67页 |
致谢 | 第67-69页 |
作者简介 | 第69-70页 |