远场集成成像图像阵列实时生成技术研究
摘要 | 第5-6页 |
ABSTRACT | 第6-7页 |
符号对照表 | 第11-12页 |
缩略语对照表 | 第12-15页 |
第一章 绪论 | 第15-23页 |
1.1 研究背景与意义 | 第15-17页 |
1.2 国内外发展现状 | 第17-21页 |
1.2.1 高质量集成成像系统 | 第17-20页 |
1.2.2 实时集成成像系统 | 第20-21页 |
1.3 本文主要研究工作 | 第21-23页 |
第二章 相机阵列集成成像系统基础理论 | 第23-37页 |
2.1 相机成像模型与相机标定方法 | 第23-26页 |
2.1.1 相机线性成像模型 | 第23-24页 |
2.1.2 相机非线性畸变模型 | 第24-26页 |
2.1.3 相机标定方法 | 第26页 |
2.2 基于相机阵列的集成成像系统 | 第26-31页 |
2.2.1 相机阵列采集系统 | 第27-29页 |
2.2.2 集成成像显示系统 | 第29-30页 |
2.2.3 集成成像同名像点关联性 | 第30-31页 |
2.3 CPU-GPU异构计算平台 | 第31-36页 |
2.3.1 并行计算方法概述 | 第31-33页 |
2.3.2 CUDA并行计算模型 | 第33-35页 |
2.3.3 CUDA存储器框架 | 第35-36页 |
2.4 本章小结 | 第36-37页 |
第三章 基于稀疏相机阵列的三维采集系统 | 第37-47页 |
3.1 稀疏相机阵列的定标与校正 | 第37-39页 |
3.1.1 双目标定方法 | 第37-38页 |
3.1.2 稀疏相机阵列标定方法 | 第38-39页 |
3.2 三维场景深度获取技术 | 第39-41页 |
3.2.1 立体视觉的深度计算原理 | 第39-40页 |
3.2.2 基于双目立体视觉的深度获取 | 第40-41页 |
3.3 实验结果 | 第41-45页 |
3.4 本章小结 | 第45-47页 |
第四章 集成成像三维显示端参数匹配 | 第47-61页 |
4.1 虚拟多视点图像阵列生成方法 | 第47-52页 |
4.1.1 虚拟视点与真实视点像素映射关系 | 第47-48页 |
4.1.2 虚拟多视点图像阵列生成方法 | 第48-51页 |
4.1.3 DIBR技术引入的若干问题 | 第51-52页 |
4.2 微单元图像阵列生成方法 | 第52-56页 |
4.2.1 像素重排生成方法 | 第53-54页 |
4.2.2 多视点光线追迹方法 | 第54-56页 |
4.3 实验结果 | 第56-59页 |
4.4 本章小结 | 第59-61页 |
第五章 基于CPU-GPU的图像阵列实时生成方法 | 第61-69页 |
5.1 微单元图像阵列并行映射模型 | 第61-65页 |
5.1.1 稀疏图像阵列实时预处理 | 第62页 |
5.1.2 三维场景深度实时获取 | 第62-63页 |
5.1.3 虚拟多视点图像阵列实时生成 | 第63-64页 |
5.1.4 微单元图像阵列实时生成 | 第64-65页 |
5.1.5 实时非零均值滤波 | 第65页 |
5.2 实验结果 | 第65-68页 |
5.3 本章小结 | 第68-69页 |
第六章 总结与展望 | 第69-71页 |
6.1 总结 | 第69页 |
6.2 展望 | 第69-71页 |
附录A | 第71-75页 |
参考文献 | 第75-79页 |
致谢 | 第79-81页 |
作者简介 | 第81-82页 |