摘要 | 第4-6页 |
ABSTRACT | 第6-7页 |
主要符号表 | 第12-16页 |
1 绪论 | 第16-31页 |
1.1 研究背景与意义 | 第16-17页 |
1.2 研究问题的提出与关键技术论述 | 第17-19页 |
1.3 国内外相关研究进展 | 第19-29页 |
1.3.1 移动机器人室外场景描述的研究进展 | 第19-24页 |
1.3.2 移动机器人自主室外场景理解的研究进展 | 第24-29页 |
1.4 本文组织结构 | 第29-31页 |
2 移动机器人多传感器数据融合及RGB-DI图像生成 | 第31-47页 |
2.1 引言 | 第31页 |
2.2 多源感知数据融合 | 第31-35页 |
2.2.1 二维激光与摄像机的数据级融合 | 第32-33页 |
2.2.2 基于惯导数据的RGB-DI点云生成 | 第33-35页 |
2.3 RGB-DI图像生成 | 第35-39页 |
2.3.1 基于平面拟合的RGB-DI图像 | 第36-37页 |
2.3.2 基于投影平面的RGB-DI图像 | 第37-39页 |
2.4 实验与数据分析 | 第39-46页 |
2.4.1 数据集 | 第39-40页 |
2.4.2 多源感知数据融合实验结果 | 第40-43页 |
2.4.3 RGB-DI图像生成算法对比分析 | 第43-46页 |
2.5 小结 | 第46-47页 |
3 基于RGB-DI图像的室外场景理解 | 第47-65页 |
3.1 引言 | 第47页 |
3.2 基于FCN模型的场景语义分割 | 第47-52页 |
3.2.1 FCN模型的基本原理 | 第47-50页 |
3.2.2 RGB-DI图像的FCN模型 | 第50-52页 |
3.3 基于CNN与全连接CRF模型的场景语义分割 | 第52-54页 |
3.4 实验结果与数据分析 | 第54-64页 |
3.4.1 不同数据源的场景理解结果 | 第54-58页 |
3.4.2 不同场景理解算法对比分析 | 第58-61页 |
3.4.3 场景理解模型的性能分析 | 第61-64页 |
3.5 小结 | 第64-65页 |
4 移动机器人长期运行中的实时场景理解 | 第65-105页 |
4.1 引言 | 第65-66页 |
4.2 系统框架 | 第66-69页 |
4.3 基于超像素CRF的快速语义分割 | 第69-77页 |
4.3.1 超像素预处理 | 第69-71页 |
4.3.2 空域与频域的特征融合 | 第71-75页 |
4.3.3 超像素CRF模型 | 第75-77页 |
4.4 移动机器人长期运行中的场景理解 | 第77-85页 |
4.4.1 基于栈式稀疏自编码的大样本特征学习 | 第77-81页 |
4.4.2 高维特征的聚类 | 第81-83页 |
4.4.3 子样本集的选择器 | 第83-85页 |
4.5 实验结果与数据分析 | 第85-103页 |
4.5.1 数据集 | 第85-86页 |
4.5.2 场景语义分割实验结果 | 第86-92页 |
4.5.3 基于大样本数据的特征提取结果对比分析 | 第92-103页 |
4.6 小结 | 第103-105页 |
5 结论与展望 | 第105-110页 |
5.1 结论 | 第106-107页 |
5.2 创新点 | 第107-108页 |
5.3 展望 | 第108-110页 |
参考文献 | 第110-118页 |
攻读博士学位期间科研项目及科研成果 | 第118-119页 |
致谢 | 第119-120页 |
作者简介 | 第120页 |