摘要 | 第4-5页 |
Abstract | 第5-6页 |
第1章 绪论 | 第10-20页 |
1.1 选题背景 | 第10-11页 |
1.2 国内外研究现状 | 第11-17页 |
1.2.1 裸眼立体显示研究现状 | 第11-15页 |
1.2.2 GIS与VR的集成模式研究 | 第15-16页 |
1.2.3 存在问题分析 | 第16-17页 |
1.3 研究的目标和意义 | 第17页 |
1.3.1 研究目标 | 第17页 |
1.3.2 研究意义 | 第17页 |
1.4 研究方法与技术路线 | 第17-18页 |
1.4.1 研究方法 | 第17-18页 |
1.4.2 技术路线 | 第18页 |
1.5 研究内容与论文组织 | 第18-20页 |
1.5.1 研究内容 | 第18-19页 |
1.5.2 论文组织 | 第19-20页 |
第2章 裸眼立体显示相关技术研究 | 第20-31页 |
2.1 裸眼立体显示技术相关基础知识 | 第20-22页 |
2.1.1 亚屏幕 | 第20-21页 |
2.1.2 立体视带 | 第21-22页 |
2.2 裸眼立体显示技术的硬件分类 | 第22-24页 |
2.2.1 光屏障式(Barrier) | 第22-23页 |
2.2.2 柱状透镜(Lenticular Lens)式 | 第23-24页 |
2.2.3 指向光源(Directional Backlight)式 | 第24页 |
2.3 裸眼立体显示多视点技术原理 | 第24-26页 |
2.3.1 双视点技术 | 第25页 |
2.3.2 多视点技术 | 第25-26页 |
2.4 裸眼立体显示图像获取 | 第26-28页 |
2.4.1 基于模型的获取方法 | 第26-27页 |
2.4.2 基于图像的获取方法 | 第27-28页 |
2.5 裸眼立体显示图像合成 | 第28-31页 |
2.5.1 子像素映射关系的建立 | 第28-29页 |
2.5.2 各视点图像子采样 | 第29-30页 |
2.5.3 多视点立体图像排列合成 | 第30-31页 |
第3章 三维地理场景的裸眼立体表达 | 第31-47页 |
3.1 三维地理场景裸眼立体显示表达特征 | 第32-34页 |
3.2 多视点裸眼立体图像获取模型 | 第34-38页 |
3.2.1 多视点像机结构模型 | 第34-35页 |
3.2.2 多视点立体像机结构参数 | 第35-38页 |
3.3 裸眼立体表达参数自适应模型 | 第38-42页 |
3.3.1 基于空间性的参数设置 | 第39-40页 |
3.3.2 基于交互性的参数设置 | 第40-42页 |
3.3.3 三维地理场景裸眼立体显示参数自适应调整 | 第42页 |
3.4 案例分析 | 第42-46页 |
3.4.1 实验数据 | 第43页 |
3.4.2 案例实现 | 第43-44页 |
3.4.3 效果评测 | 第44-46页 |
3.5 本章小结 | 第46-47页 |
第4章 GIS与裸眼立体显示技术集成方法 | 第47-64页 |
4.1 GIS与虚拟现实技术的灰盒集成模式 | 第47-48页 |
4.2 GIS与裸眼立体集成方法 | 第48-57页 |
4.2.1 集成流程 | 第49-52页 |
4.2.2 基于命令拦截的场景信息获取 | 第52-55页 |
4.2.3 多视点图像生成与合成 | 第55-57页 |
4.3 案例分析 | 第57-62页 |
4.3.1 案例实现 | 第57-59页 |
4.3.2 评测分析 | 第59-62页 |
4.4 本章小结 | 第62-64页 |
第5章 GIS裸眼立体显示原型系统 | 第64-68页 |
5.1 系统实现软硬件环境 | 第64页 |
5.1.1 硬件环境 | 第64页 |
5.1.2 软件环境 | 第64页 |
5.2 系统设计与实现 | 第64-66页 |
5.3 系统运行效果 | 第66-67页 |
5.4 本章小结 | 第67-68页 |
第6章 结论与展望 | 第68-70页 |
6.1 研究结论与成果 | 第68-69页 |
6.2 研究局限性与展望 | 第69-70页 |
参考文献 | 第70-74页 |
致谢 | 第74页 |