摘要 | 第5-7页 |
ABSTRACT | 第7-8页 |
第一章 绪论 | 第12-20页 |
1.1 课题研究背景及意义 | 第12页 |
1.2 红外成像技术在机器视觉中的应用研究现状 | 第12-17页 |
1.2.1 机器视觉技术 | 第12-13页 |
1.2.2 获取红外图像的深度信息 | 第13-15页 |
1.2.3 识别红外图像的场景类别 | 第15-16页 |
1.2.4 红外图像的彩色化处理 | 第16-17页 |
1.3 本文研究内容 | 第17-20页 |
第二章 红外图像的场景识别与彩色化处理 | 第20-28页 |
2.1 引言 | 第20页 |
2.2 红外图像的场景识别 | 第20-24页 |
2.2.1 基于GIST特征快速获取近邻样本图像 | 第21-22页 |
2.2.2 SIFT Flow对象匹配 | 第22页 |
2.2.3 使用MRF获取场景标签 | 第22-24页 |
2.3 红外图像的彩色化处理 | 第24页 |
2.4 实验 | 第24-25页 |
2.5 本章小结 | 第25-28页 |
第三章 场景深度信息提取技术及设备介绍 | 第28-38页 |
3.1 引言 | 第28页 |
3.2 场景深度信息采集技术 | 第28-32页 |
3.2.1 双目三角定位法 | 第28-29页 |
3.2.2 结构光方法 | 第29-30页 |
3.2.3 其它深度获取方法 | 第30-32页 |
3.3 从二维图像估计场景深度 | 第32-33页 |
3.4 集成深度信息采集设备 | 第33-37页 |
3.4.1 Microsoft Kinect设备 | 第33-36页 |
3.4.2 Intel Real Sense设备 | 第36-37页 |
3.5 本章小结 | 第37-38页 |
第四章 光束平差法重建三维场景 | 第38-54页 |
4.1 引言 | 第38页 |
4.2 光束平差法 | 第38-39页 |
4.3 光束平差模型 | 第39-41页 |
4.3.1 投影模型 | 第39-40页 |
4.3.2 基本平差模型 | 第40-41页 |
4.4 误差模型选择 | 第41-44页 |
4.4.1 非线性最小二乘法 | 第41-42页 |
4.4.2 鲁棒最小二乘法 | 第42-43页 |
4.4.3 隐式模型 | 第43-44页 |
4.5 光束平差模型实现 | 第44-47页 |
4.5.1 舒尔补及系统简化 | 第45-46页 |
4.5.2 三角阵分解 | 第46-47页 |
4.6 光束平差模型求解 | 第47-50页 |
4.6.1 牛顿迭代法 | 第47-48页 |
4.6.2 Levenberg-Marquardt迭代 | 第48页 |
4.6.3 稀疏化求解光束平差问题 | 第48-50页 |
4.7 光束平差法实验 | 第50-52页 |
4.7.1 重建可见光场景 | 第50-52页 |
4.7.2 重建夜间场景 | 第52页 |
4.8 本章小结 | 第52-54页 |
第五章 从图像深度重建彩色三维场景模型 | 第54-68页 |
5.1 引言 | 第54页 |
5.2 深度图预处理 | 第54-57页 |
5.2.1 获取相机标定参数 | 第56-57页 |
5.2.2 深度图与彩色图像的配准 | 第57页 |
5.3 建立密集点云模型 | 第57-60页 |
5.3.1 从深度图到三维点云 | 第57-58页 |
5.3.2 剔除噪声和异常点 | 第58页 |
5.3.3 多模型合并 | 第58-60页 |
5.4 建立彩色网孔模型 | 第60-62页 |
5.4.1 提取关键点 | 第60页 |
5.4.2 重建表面网孔模型 | 第60页 |
5.4.3 网孔色彩填充 | 第60-62页 |
5.5 场景三维重建实验 | 第62-66页 |
5.5.1 重建可见光场景 | 第62页 |
5.5.2 重建夜间场景 | 第62-66页 |
5.6 本章小结 | 第66-68页 |
全文总结 | 第68-70页 |
附录A 光束平差法实验附图 | 第70-72页 |
附录B 可见光场景彩色三维重建实验附图 | 第72-78页 |
附录C 夜间场景无色彩三维重建实验附图 | 第78-84页 |
参考文献 | 第84-92页 |
攻读学位期间的研究成果 | 第92-94页 |
致谢 | 第94页 |