摘要 | 第5-7页 |
ABSTRACT | 第7-8页 |
符号对照表 | 第14-15页 |
缩略语对照表 | 第15-19页 |
第一章 绪论 | 第19-29页 |
1.1 研究背景与意义 | 第19-22页 |
1.2 国内外发展现状 | 第22-27页 |
1.2.1 集成成像三维显示质量表征模型 | 第22-24页 |
1.2.2 集成成像光场采集与转换技术 | 第24-27页 |
1.3 本文研究内容 | 第27-29页 |
1.3.1 研究内容与结构 | 第27-28页 |
1.3.2 本文的创新点 | 第28-29页 |
第二章 立体视觉感知特性和集成成像性能指标 | 第29-53页 |
2.1 人眼视觉感知理论 | 第29-37页 |
2.1.1 人眼光学模型 | 第29-34页 |
2.1.2 立体视觉特性 | 第34-37页 |
2.2 集成成像三维显示原理 | 第37-42页 |
2.2.1 集成成像采集过程 | 第39-42页 |
2.2.2 集成成像显示过程 | 第42页 |
2.3 集成成像三维显示质量评价指标 | 第42-51页 |
2.3.1 三维体像素 | 第42-45页 |
2.3.2 系统可观测深度 | 第45-49页 |
2.3.3 可观测视域 | 第49-51页 |
2.4 本章小结 | 第51-53页 |
第三章 全链路集成成像三维显示质量综合表征模型 | 第53-83页 |
3.1 集成成像全链路信息传递原理 | 第53-54页 |
3.2 基于波动光学的集成成像系统点扩散模型 | 第54-61页 |
3.2.1 集成成像三维显示系统的光学传递特性 | 第54-60页 |
3.2.2 三维重构光场强度分布特性 | 第60-61页 |
3.3 基于几何光学的全链路集成成像三维显示质量表征模型 | 第61-69页 |
3.3.1 采集过程建模 | 第61-65页 |
3.3.2 显示过程建模 | 第65-69页 |
3.4 仿真实验与结果分析 | 第69-81页 |
3.4.1 微单元图像阵列生成 | 第69-72页 |
3.4.2 三维显示质量分析 | 第72-81页 |
3.5 本章小结 | 第81-83页 |
第四章 集成成像高分辨率微单元图像阵列采集技术 | 第83-105页 |
4.1 压缩感知理论 | 第83-84页 |
4.2 基于时变压缩编码的高分辨率集成成像方法 | 第84-95页 |
4.2.1 时变压缩编码集成成像原理 | 第84-89页 |
4.2.2 实验与结果分析 | 第89-95页 |
4.3 基于随机相位编码的集成成像质量提升方法 | 第95-103页 |
4.3.1 理论推导 | 第95-100页 |
4.3.2 实验与结果分析 | 第100-103页 |
4.4 本章小节 | 第103-105页 |
第五章 稀疏相机阵列光场采集与转换生成技术 | 第105-123页 |
5.1 稀疏相机阵列光场采集与转换生成方法 | 第105-115页 |
5.1.1 稀疏相机阵列的标定与校正 | 第106-107页 |
5.1.2 基于双目立体视觉的深度获取 | 第107-109页 |
5.1.3 预设深度虚拟视点图像阵列生成 | 第109-113页 |
5.1.4 匹配显示端参数的光场转换生成 | 第113-115页 |
5.2 实验与结果分析 | 第115-121页 |
5.3 本章小结 | 第121-123页 |
第六章 基于光场相机的三维场景采集与计算重建技术 | 第123-139页 |
6.1 聚焦型光场相机设计 | 第123-131页 |
6.1.1 聚焦型光场相机原理 | 第123-127页 |
6.1.2 光场相机研制方案 | 第127-131页 |
6.2 光场图像三维重建 | 第131-138页 |
6.2.1 基于深度评估的三维点云光场图像重建算法 | 第131-134页 |
6.2.2 高分辨率自动对焦光场图像重建算法 | 第134-136页 |
6.2.3 实验与结果分析 | 第136-138页 |
6.3 本章小结 | 第138-139页 |
第七章 总结与展望 | 第139-141页 |
参考文献 | 第141-151页 |
致谢 | 第151-153页 |
作者简介 | 第153-155页 |