| 摘要 | 第1-9页 |
| ABSTRACT | 第9-14页 |
| 第一章 绪论 | 第14-33页 |
| ·课题研究背景及意义 | 第14-16页 |
| ·国内外研究现状及存在问题 | 第16-29页 |
| ·多视点视频采集及表示 | 第18-21页 |
| ·多视点视频编码 | 第21-25页 |
| ·视点绘制 | 第25-29页 |
| ·论文的主要研究内容及创新成果 | 第29-32页 |
| ·本章小结 | 第32-33页 |
| 第二章 多视点视频的基础理论和关键问题 | 第33-52页 |
| ·多视点视频基础 | 第33-36页 |
| ·3D 感觉与立体显示 | 第33-35页 |
| ·三维成像的几何模型 | 第35-36页 |
| ·多视点视频采集 | 第36-42页 |
| ·采集系统类型 | 第36-41页 |
| ·采集系统关键问题 | 第41-42页 |
| ·多视点视频压缩编码 | 第42-49页 |
| ·多视点视频编码方案分析 | 第42-48页 |
| ·多视点视频编码关键问题 | 第48-49页 |
| ·多视点视频绘制 | 第49-51页 |
| ·多视点视频绘制方法 | 第49-50页 |
| ·多视点视频绘制关键问题 | 第50-51页 |
| ·本章小结 | 第51-52页 |
| 第三章 多视点视频采集与绘制重建的优化研究 | 第52-75页 |
| ·多视点采集与绘制质量问题的提出 | 第52-54页 |
| ·多视点采集理论 | 第52-53页 |
| ·多视点采集与绘制的关系 | 第53-54页 |
| ·多视点数据奈奎斯特采样分析 | 第54-57页 |
| ·采集系统建模 | 第54-56页 |
| ·奈奎斯特采样 | 第56-57页 |
| ·多视点数据光谱特性分析 | 第57-64页 |
| ·多视点数据表示 | 第57-59页 |
| ·光谱特性分析 | 第59-64页 |
| ·重建滤波器设计及视点绘制 | 第64-67页 |
| ·滤波器函数设计 | 第64-66页 |
| ·虚拟视绘制 | 第66-67页 |
| ·实验结果及分析 | 第67-74页 |
| ·建模场景实验 | 第67-72页 |
| ·真实场景实验 | 第72-74页 |
| ·本章小结 | 第74-75页 |
| 第四章 高效的多视点视频编码方法研究 | 第75-93页 |
| ·现有的基于 Simulcast 和 JMVM 的多视点视频编码方案 | 第75-77页 |
| ·基于联合矢量的预测方法 | 第77-86页 |
| ·立体视频中视差矢量与运动矢量的对应关系 | 第77-82页 |
| ·多视点视频中运动场和视差场的约束关系 | 第82-85页 |
| ·基于权重的视差插值 | 第85-86页 |
| ·基于联合矢量预测的多视点编码方案 | 第86-87页 |
| ·实验结果及分析 | 第87-92页 |
| ·相邻视点视差关系 | 第87-90页 |
| ·编码效率对比 | 第90-92页 |
| ·本章小结 | 第92-93页 |
| 第五章 低视觉误差多视点虚拟视绘制算法研究 | 第93-111页 |
| ·常用的多视点虚拟视绘制方法及存在问题 | 第93-94页 |
| ·基于区域的映射 | 第94-98页 |
| ·区域映射原理 | 第94-96页 |
| ·区域映射误差修正 | 第96-98页 |
| ·基于平面扫描的深度重建 | 第98-102页 |
| ·改进的平面扫描方法 | 第99-101页 |
| ·动态色彩一致度判决方法 | 第101-102页 |
| ·基于图像融合的误差修正 | 第102-103页 |
| ·实验结果及分析 | 第103-109页 |
| ·真实场景实验 | 第103-108页 |
| ·实验效果对比 | 第108-109页 |
| ·本章小结 | 第109-111页 |
| 第六章 总结和展望 | 第111-114页 |
| ·本文工作总结 | 第111-112页 |
| ·进一步的工作 | 第112-114页 |
| 参考文献 | 第114-126页 |
| 附录 | 第126-128页 |
| 攻读博士学位期间的成果 | 第128-130页 |
| 致谢 | 第130-131页 |