多传感器融合的三维场景感知
摘要 | 第3-5页 |
Abstract | 第5-7页 |
第一章 绪论 | 第11-19页 |
1.1 研究背景与意义 | 第11-12页 |
1.2 国内外研究现状 | 第12-16页 |
1.2.1 基于单幅图像的距离测量 | 第12-14页 |
1.2.2 多深度传感器数据的快速融合 | 第14页 |
1.2.3 实时动态场景重建 | 第14-16页 |
1.3 主要的研究工作与全文的组织结构 | 第16-19页 |
1.3.1 主要的研究内容 | 第16-17页 |
1.3.2 全文的组织结构 | 第17-19页 |
第二章 消费级传感器和GPU并行计算 | 第19-30页 |
2.1 消费级传感器 | 第19-24页 |
2.1.1 深度相机传感器 | 第19-23页 |
2.1.2 加速度传感器 | 第23-24页 |
2.2 GPU并行计算 | 第24-30页 |
2.2.1 基本架构 | 第24-27页 |
2.2.2 执行模型 | 第27页 |
2.2.3 编程模型 | 第27-30页 |
第三章 移动设备多传感器融合的距离测量 | 第30-52页 |
3.1 引言 | 第30-31页 |
3.2 融合加速度和相机传感器的单幅图像距离测量 | 第31-40页 |
3.2.1 坐标系 | 第31-32页 |
3.2.2 初始化 | 第32-33页 |
3.2.3 估计相机逻辑焦距和缩放因子 | 第33-37页 |
3.2.4 测量距离 | 第37-40页 |
3.3 实验结果及分析 | 第40-52页 |
3.3.1 定性实验 | 第40-45页 |
3.3.2 定量实验 | 第45-47页 |
3.3.3 对比实验 | 第47-52页 |
第四章 多深度传感器数据的快速融合 | 第52-68页 |
4.1 引言 | 第52页 |
4.2 多个深度传感器的标定 | 第52-59页 |
4.2.1 相机标定的背景 | 第53-54页 |
4.2.2 标定算法 | 第54-59页 |
4.3 基于两层空间体素的融合算法 | 第59-63页 |
4.4 实验结果及分析 | 第63-68页 |
4.4.1 多深度传感器标定实验 | 第64-66页 |
4.4.2 两层空间体素融合实验 | 第66-68页 |
第五章 实时动态场景重建 | 第68-89页 |
5.1 引言 | 第68-70页 |
5.2 点云配准简介 | 第70页 |
5.3 问题模型 | 第70-71页 |
5.4 迭代最近邻点算法 | 第71-74页 |
5.5 投影非线性约束迭代算法 | 第74-82页 |
5.5.1 形变模型 | 第74-75页 |
5.5.2 构建能量方程 | 第75-82页 |
5.6 优化目标函数 | 第82-85页 |
5.6.1 投影非线性约束 | 第83页 |
5.6.2 线性最小二乘问题求解 | 第83-85页 |
5.7 实验结果分析及讨论 | 第85-89页 |
第六章 总结和展望 | 第89-91页 |
6.1 本文总结 | 第89-90页 |
6.2 工作展望 | 第90-91页 |
参考文献 | 第91-101页 |
附录 | 第101-104页 |
Appendix | 第104-106页 |
致谢 | 第106-107页 |
攻读博士学位期间科研成果 | 第107页 |