| 中文摘要 | 第3-4页 |
| 英文摘要 | 第4页 |
| 1 绪论 | 第7-11页 |
| 1.1 课题研究的背景及意义 | 第7-8页 |
| 1.2 国内外研究现状 | 第8-9页 |
| 1.3 本文研究内容与结构安排 | 第9-11页 |
| 2 三维视频原理与视频转换技术 | 第11-19页 |
| 2.1 人眼三维成像原理 | 第11-12页 |
| 2.2 深度知觉线索 | 第12-13页 |
| 2.2.1 多目深度线索 | 第12页 |
| 2.2.2 单目深度线索 | 第12-13页 |
| 2.3 视差与深度 | 第13-14页 |
| 2.4 红蓝 3D技术原理 | 第14-16页 |
| 2.5 2D视频转 3D视频的系统结构 | 第16-18页 |
| 2.5.1 生成深度图 | 第16-17页 |
| 2.5.2 合成立体视频 | 第17页 |
| 2.5.3 立体视频显示 | 第17-18页 |
| 2.6 小结 | 第18-19页 |
| 3 深度图生成方法研究 | 第19-34页 |
| 3.1 引言 | 第19-20页 |
| 3.2 视频中的前景背景分割 | 第20-23页 |
| 3.3 基于运动信息的前景深度图提取 | 第23-29页 |
| 3.3.1 运动估计 | 第23-24页 |
| 3.3.2 光流法原理 | 第24-25页 |
| 3.3.3 光流场与运动场的关系 | 第25-26页 |
| 3.3.4 基本的光流方程 | 第26-28页 |
| 3.3.5 运动矢量与深度图的关系 | 第28-29页 |
| 3.4 基于几何透视的背景深度提取 | 第29-32页 |
| 3.4.1 提取背景的消失线(灭线)和消失点(灭点) | 第29-30页 |
| 3.4.2 背景深度层次分配 | 第30-32页 |
| 3.5 前景背景深度图融合 | 第32-33页 |
| 3.6 本章小结 | 第33-34页 |
| 4 视差估计 | 第34-37页 |
| 4.1 概述 | 第34页 |
| 4.2 视差估计方法 | 第34-35页 |
| 4.2.1 基于块的视差估计 | 第34-35页 |
| 4.2.2 基于网格的视差估计 | 第35页 |
| 4.3 视差图估计 | 第35-36页 |
| 4.4 本章小结 | 第36-37页 |
| 5 基于视差图的三维视频转换方法 | 第37-46页 |
| 5.1 引言 | 第37页 |
| 5.2 深度图像预处理 | 第37-38页 |
| 5.3 左、右视图创建 | 第38页 |
| 5.4 空洞填充 | 第38-40页 |
| 5.5 红蓝 3D图像创建 | 第40-42页 |
| 5.6 二维到三维视频转换方法 | 第42-45页 |
| 5.6.1 转换方法的原理 | 第42-43页 |
| 5.6.2 实验结果 | 第43-45页 |
| 5.7 本章小结 | 第45-46页 |
| 6 总结与展望 | 第46-48页 |
| 6.1 本文工作总结 | 第46页 |
| 6.2 后续工作及展望 | 第46-48页 |
| 致谢 | 第48-49页 |
| 参考文献 | 第49-52页 |