摘要 | 第9-10页 |
ABSTRACT | 第10-11页 |
第一章 绪论 | 第12-22页 |
1.1 研究背景及意义 | 第12-13页 |
1.2 国内外研究现状 | 第13-20页 |
1.2.1 室内场景三维重建 | 第13-15页 |
1.2.2 室内场景语义标注 | 第15-18页 |
1.2.3 公开数据集介绍 | 第18-20页 |
1.3 主要工作及创新点 | 第20页 |
1.4 论文组织结构 | 第20-22页 |
第二章 室内场景三维重建方法 | 第22-35页 |
2.1 基于运动结构恢复的三维重建技术 | 第22-28页 |
2.1.1 运动结构恢复方法 | 第22-25页 |
2.1.2 运动结构恢复方法流程及实验 | 第25-28页 |
2.2 室内场景三维重建方法 | 第28-32页 |
2.2.1 地图定位与即时重建方法 | 第28-30页 |
2.2.2 基于KinectFusion的三维重建方法 | 第30-32页 |
2.3 面向RGB-D数据的运动结构恢复方法设计 | 第32-34页 |
2.3.1 适用于室内场景的简化SfM方法 | 第32页 |
2.3.2 本文面向RGB-D数据的SfM方法流程 | 第32-34页 |
2.4 本章小结 | 第34-35页 |
第三章 RGB-D运动结构恢复方法 | 第35-47页 |
3.1 Kinect相机标定 | 第35-39页 |
3.1.1 相机模型 | 第35-38页 |
3.1.2 标定实验设计 | 第38-39页 |
3.1.3 标定实验结果及分析 | 第39页 |
3.2 深度图像预处理 | 第39-42页 |
3.2.1 深度图像配准与填补 | 第39-41页 |
3.2.2 基于深度图像的点云与法向生成 | 第41-42页 |
3.3 点云拼接方法 | 第42-43页 |
3.4 本文SfM方法实验结果及分析 | 第43-46页 |
3.5 本章小结 | 第46-47页 |
第四章 RGB-D超像素分割方法 | 第47-56页 |
4.1 超像素分割 | 第47-51页 |
4.1.1 RGB图像的超像素分割 | 第47-50页 |
4.1.2 RGB-D图像的超像素分割 | 第50-51页 |
4.2 改进的RGB-D图像的超像素分割算法 | 第51-52页 |
4.2.1 基于SLIC的改进算法 | 第51页 |
4.2.2 融合深度及法向量的距离度量 | 第51-52页 |
4.3 超像素分割实验结果评估 | 第52-55页 |
4.3.1 超像素分割评估标准 | 第52-53页 |
4.3.2 实验结果与分析 | 第53-55页 |
4.4 本章小结 | 第55-56页 |
第五章 RGB-D数据语义标注方法 | 第56-65页 |
5.1 特征提取与处理 | 第56-58页 |
5.1.1 特征提取 | 第56-57页 |
5.1.2 词袋模型 | 第57-58页 |
5.2 基于SVM的多标签分类标注 | 第58-59页 |
5.3 使用点对CRF进行语义推断 | 第59-63页 |
5.3.1 点对条件随机场模型 | 第59-61页 |
5.3.2 使用点对CRF进行语义推断设计 | 第61页 |
5.3.3 实验结果分析 | 第61-63页 |
5.4 带语义标注的室内场景三维点云模型生成 | 第63-64页 |
5.5 本章小结 | 第64-65页 |
第六章 总结与展望 | 第65-67页 |
致谢 | 第67-68页 |
参考文献 | 第68-75页 |
作者在学期间取得的学术成果 | 第75页 |