摘要 | 第6-7页 |
Abstract | 第7页 |
第1章 绪论 | 第10-15页 |
1.1 研究背景和意义 | 第10-11页 |
1.2 国内外研究现状分析 | 第11-12页 |
1.3 研究目标和内容 | 第12-13页 |
1.3.1 移动机器人计算机视觉系统 | 第13页 |
1.3.2 多视角目标检测 | 第13页 |
1.3.3 目标定位 | 第13页 |
1.4 论文组织结构 | 第13-15页 |
第2章 移动机器人视觉系统硬件组成 | 第15-21页 |
2.1 引言 | 第15页 |
2.2 硬件系统框架 | 第15-16页 |
2.3 Pioneer 3-AT型移动机器人平台 | 第16-18页 |
2.4 PTU46二自由度云台 | 第18-19页 |
2.5 RGB-D深度相机及Kinect | 第19-20页 |
2.6 本章小结 | 第20-21页 |
第3章 移动机器人视觉系统软件设计 | 第21-30页 |
3.1 引言 | 第21页 |
3.2 视觉系统软件架构 | 第21-25页 |
3.2.1 模块化软件系统设计 | 第21-23页 |
3.2.2 单机软件架构 | 第23-24页 |
3.2.3 分布式软件架构 | 第24-25页 |
3.3 软件层级 | 第25-27页 |
3.3.1 感知层 | 第26页 |
3.3.2 规划层 | 第26-27页 |
3.3.3 执行层 | 第27页 |
3.4 PTU46远程控制程序 | 第27-29页 |
3.5 本章小结 | 第29-30页 |
第4章 多视角目标检测 | 第30-50页 |
4.1 引言 | 第30页 |
4.2 多视角目标检测框架 | 第30-32页 |
4.3 Adaboost算法 | 第32-37页 |
4.4 图像预处理及特征提取 | 第37-40页 |
4.4.1 图像灰度化 | 第37-38页 |
4.4.2 类Haar特征(Haar-Like Feature) | 第38-39页 |
4.4.3 特征提取 | 第39-40页 |
4.5 瀑布型检测器 | 第40页 |
4.6 在线检测阶段 | 第40-41页 |
4.7 实验结果与分析 | 第41-49页 |
4.7.1 数据获取与分类 | 第41-43页 |
4.7.2 实验设置 | 第43页 |
4.7.3 检测结果 | 第43-49页 |
4.8 本章小结 | 第49-50页 |
第5章 基于深度图像的目标定位 | 第50-58页 |
5.1 引言 | 第50页 |
5.2 深度图像数据 | 第50-52页 |
5.3 三维坐标计算 | 第52-54页 |
5.4 彩色图像与深度信息的融合 | 第54-55页 |
5.5 实验结果与分析 | 第55-57页 |
5.6 本章小结 | 第57-58页 |
总结与展望 | 第58-60页 |
致谢 | 第60-61页 |
参考文献 | 第61-65页 |
攻读硕士学位期间的论文及科研成果 | 第65页 |