摘要 | 第5-6页 |
Abstract | 第6-7页 |
第一章 绪论 | 第11-19页 |
1.1 课题研究背景及意义 | 第11-12页 |
1.2 基于RGB-D感知的移动机器人地图构建与导航研究现状 | 第12-14页 |
1.2.1 复杂室内三维地图构建与视觉定位 | 第12-14页 |
1.2.2 自主视觉避障导航 | 第14页 |
1.3 存在的问题与难点 | 第14-15页 |
1.4 论文的研究目标和研究内容 | 第15-16页 |
1.5 论文结构安排 | 第16-19页 |
第二章 基于RGB-D感知的移动机器人地图构建与导航系统 | 第19-25页 |
2.1 系统需求分析及总体设计 | 第19-21页 |
2.1.1 系统需求分析 | 第19页 |
2.1.2 系统总体框架设计 | 第19-21页 |
2.2 软硬件平台搭建 | 第21-24页 |
2.2.1 硬件系统 | 第21-23页 |
2.2.2 软件结构 | 第23-24页 |
2.3 本章小结 | 第24-25页 |
第三章 环境特征提取方法设计 | 第25-35页 |
3.1 环境特征提取总体流程 | 第25-26页 |
3.2 三维点云预处理 | 第26-29页 |
3.2.1 环境点云信息的获取 | 第26页 |
3.2.2 三维点云滤波 | 第26-29页 |
3.3 基于RANSAC算法的地面提取及其滤除 | 第29-31页 |
3.4 环境特征提取实现 | 第31-34页 |
3.4.1 踢脚线提取 | 第31-33页 |
3.4.2 局部栅格地图创建 | 第33页 |
3.4.3 坐标系变换 | 第33-34页 |
3.5 本章小结 | 第34-35页 |
第四章 未知室内环境下基于SDBoW2的三维全局地图构建 | 第35-55页 |
4.1 基于RGB-D感知的三维地图构建总体框架 | 第35-36页 |
4.2 基于ORB算子的快速特征提取与匹配 | 第36-39页 |
4.2.1 ORB算子 | 第36-37页 |
4.2.2 ORB与SURF、SIFT的对比测试 | 第37-39页 |
4.3 SDBoW2模型设计 | 第39-44页 |
4.3.1 融合空间关系的二进制形式视觉词典 | 第39-42页 |
4.3.2 SDBoW2性能分析 | 第42-44页 |
4.4 三维全局地图构建 | 第44-51页 |
4.4.1 基于SDBoW2模型的闭环检测 | 第45-49页 |
4.4.2 三维点云拼接 | 第49-50页 |
4.4.3 三维地图全局优化 | 第50-51页 |
4.5 三维地图构建实验 | 第51-53页 |
4.6 本章小结 | 第53-55页 |
第五章 基于RGB-D感知的室内避障导航 | 第55-73页 |
5.1 室内视觉导航总体结构 | 第55-56页 |
5.2 基于视觉定位的复杂室内避障导航模式 | 第56-67页 |
5.2.1 导航级联控制结构 | 第56-57页 |
5.2.2 基于三维全局地图的视觉定位 | 第57-59页 |
5.2.3 二维全局地图及导航参考目标点生成 | 第59-61页 |
5.2.4 基于RGB-D感知的接近图反应式避障 | 第61-67页 |
5.3 基于栅格-几何混合特征的走廊视觉避障导航模式 | 第67-72页 |
5.3.1 避障导航策略 | 第68-71页 |
5.3.2 走廊模式设计与实现 | 第71-72页 |
5.4 本章小结 | 第72-73页 |
第六章 三维全局地图构建与视觉导航系统开发与验证 | 第73-93页 |
6.1 复杂室内三维地图构建实验 | 第73-79页 |
6.1.1 三维地图构建功能开发 | 第73-74页 |
6.1.2 三维地图构建方法性能分析 | 第74-79页 |
6.2 移动机器人室内视觉导航实验 | 第79-92页 |
6.2.1 视觉避障导航设计 | 第79-81页 |
6.2.2 实时获取障碍物信息实验 | 第81页 |
6.2.3 视觉定位实验 | 第81-88页 |
6.2.4 复杂室内视觉避障导航实验 | 第88-90页 |
6.2.5 走廊视觉避障导航实验 | 第90-92页 |
6.3 本章小结 | 第92-93页 |
第七章 总结与展望 | 第93-95页 |
7.1 总结 | 第93-94页 |
7.2 展望 | 第94-95页 |
致谢 | 第95-97页 |
参考文献 | 第97-101页 |
作者在攻读硕士学位期间发表的论文和科研成果 | 第101页 |