致谢 | 第5-7页 |
摘要 | 第7-8页 |
Abstract | 第8-9页 |
第1章 绪论 | 第13-29页 |
1.1 研究背景与意义 | 第13-18页 |
1.1.1 研究背景 | 第13-16页 |
1.1.2 基于视觉的机器人三维运动估计与环境建模问题描述 | 第16-17页 |
1.1.3 动态环境下视觉自运动估计与环境建模的挑战与意义 | 第17-18页 |
1.2 论文所涉技术及研究现状 | 第18-26页 |
1.2.1 视觉自运动估计方法及其研究现状 | 第18-22页 |
1.2.2 环境建模方法及其研究现状 | 第22-26页 |
1.3 论文研究内容与创新点 | 第26-27页 |
1.3.1 主要研究内容 | 第26-27页 |
1.3.2 创新点与贡献 | 第27页 |
1.4 本文章节安排 | 第27-29页 |
第2章 RGB-D传感器信息预处理 | 第29-41页 |
2.1 引言 | 第29页 |
2.2 RGB-D传感器结构与原理 | 第29-31页 |
2.2.1 传感器结构 | 第30页 |
2.2.2 深度测量原理 | 第30-31页 |
2.3 RGB-D摄像机标定 | 第31-34页 |
2.3.1 坐标系约定 | 第31-32页 |
2.3.2 相机模型 | 第32页 |
2.3.3 内参数标定 | 第32-34页 |
2.4 空间配准与时间同步 | 第34-36页 |
2.4.1 图像空间配准 | 第34页 |
2.4.2 信号时间同步 | 第34-36页 |
2.5 不确定度建模 | 第36-40页 |
2.5.1 深度测量模型 | 第37-38页 |
2.5.2 不确定度建模 | 第38-40页 |
2.6 本章小结 | 第40-41页 |
第3章 基于特征区域分割的RGB-D视觉里程计算法 | 第41-67页 |
3.1 引言 | 第41-42页 |
3.2 算法框架 | 第42-43页 |
3.2.1 视觉里程计原理 | 第42页 |
3.2.2 FRSVO算法框架 | 第42-43页 |
3.3 特征提取与不确定度建模 | 第43-44页 |
3.3.1 特征选择 | 第43-44页 |
3.3.2 基于不确定度的特征点筛选 | 第44页 |
3.4 特征区域分割 | 第44-49页 |
3.4.1 特征匹配 | 第45页 |
3.4.2 区域分割 | 第45-49页 |
3.5 运动估计与关键帧 | 第49-50页 |
3.5.1 摄像机运动估计 | 第49-50页 |
3.5.2 关键帧技术 | 第50页 |
3.6 算法实验评估 | 第50-66页 |
3.6.1 算法运行平台 | 第50-52页 |
3.6.2 室内动态环境实验 | 第52-55页 |
3.6.3 公开数据集对比实验 | 第55-66页 |
3.6.4 时间效率测试 | 第66页 |
3.7 本章小结 | 第66-67页 |
第4章 动态环境下的静态地图构建 | 第67-93页 |
4.1 引言 | 第67-68页 |
4.2 系统框架 | 第68-69页 |
4.3 SLAM图模型优化 | 第69-74页 |
4.3.1 位姿图 | 第69-71页 |
4.3.2 闭环检测 | 第71-72页 |
4.3.3 全局优化 | 第72-74页 |
4.4 静态地图构建 | 第74-81页 |
4.4.1 点云地图连接 | 第75页 |
4.4.2 降采样与野值剔除 | 第75-76页 |
4.4.3 静态地图构建方法 | 第76-81页 |
4.5 系统实验验证 | 第81-92页 |
4.5.1 算法运行平台 | 第81-82页 |
4.5.2 SLAM算法实验评估 | 第82-87页 |
4.5.3 静态地图构建方法实验验证 | 第87-91页 |
4.5.4 时间效率测试 | 第91-92页 |
4.6 本章小结 | 第92-93页 |
第5章 总结与展望 | 第93-95页 |
5.1 论文总结 | 第93-94页 |
5.2 研究展望 | 第94-95页 |
参考文献 | 第95-99页 |
作者简介 | 第99页 |