多视角立体视频编解码的关键技术研究
摘要 | 第3-5页 |
ABSTRACT | 第5-6页 |
第一章 绪论 | 第10-21页 |
1.1 论文背景 | 第10-13页 |
1.2 多视角立体视频编码压缩技术 | 第13-20页 |
1.2.1 多视角立体视频系统总体框架 | 第13-15页 |
1.2.2 多视编码方案 | 第15-16页 |
1.2.3 场景深度提取 | 第16-19页 |
1.2.4 立体视频前后景分割编码 | 第19-20页 |
1.3 论文安排 | 第20-21页 |
第二章 多视角立体视频编解码方案研究 | 第21-33页 |
2.1 多视角立体视频编码的研究现状 | 第21-25页 |
2.1.1 研究多视角立体视频压缩技术的必要性 | 第21-22页 |
2.1.2 H.264-MVC方案简介 | 第22-23页 |
2.1.3 基于立体视觉特性的编码技术 | 第23-25页 |
2.2 改进的多视角立体视频编解码方案 | 第25-31页 |
2.2.1 改进方案的总体介绍 | 第25-27页 |
2.2.2 深度估计和深度图编码模块简介 | 第27-29页 |
2.2.3 多视角视频编码模块简介 | 第29-30页 |
2.2.4 多视解码模块简介 | 第30-31页 |
2.3 本章小结 | 第31-33页 |
第三章 深度提取算法研究 | 第33-44页 |
3.1 深度提取的全局算法 | 第33-35页 |
3.2 基于置信传播的视差估计算法 | 第35-37页 |
3.3 改进的视差估计置信传播算法 | 第37-43页 |
3.3.1 初始视差场估计 | 第37-38页 |
3.3.2 交叉不稳定检测技术 | 第38-39页 |
3.3.3 改进的置信传播算法 | 第39-40页 |
3.3.4 实验结果 | 第40-43页 |
3.4 本章小结 | 第43-44页 |
第四章 基于深度的高效编码 | 第44-60页 |
4.1 编码器结构综述 | 第44-45页 |
4.2 基于深度的快速视间预测补偿 | 第45-50页 |
4.2.1 快速视间预测补偿通用技术 | 第45-46页 |
4.2.2 基于深度的快速视间预测补偿算法 | 第46-48页 |
4.2.3 实验结果 | 第48-50页 |
4.3 前景提取算法 | 第50-59页 |
4.3.1 图像分割算法简述 | 第50-51页 |
4.3.2 基于深度的前景区域提取 | 第51-52页 |
4.3.3 基于深度和彩色分割的前景区域提取 | 第52-54页 |
4.3.4 前后景分割编码实验结果 | 第54-59页 |
4.4 本章小节 | 第59-60页 |
第五章 基于GPU和CPU混合运算的解码技术 | 第60-71页 |
5.1 GPU通用计算技术简介 | 第60-63页 |
5.1.1 图形渲染流水线 | 第60-61页 |
5.1.2 GPGPU编程常用概念 | 第61-62页 |
5.1.3 GPGPU的运算过程原理 | 第62-63页 |
5.2 IDCT运算在GPU上的实现 | 第63-65页 |
5.2.1 IDCT运算在GPU上实现的基本原则 | 第63页 |
5.2.2 基于块的IDCT运算 | 第63-64页 |
5.2.3 基于多通道的改进IDCT运算 | 第64-65页 |
5.3 图像彩色空间变化在GPU上的实现 | 第65-66页 |
5.4 实验分析 | 第66-70页 |
5.4.1 IDCT运算效率分析 | 第66-68页 |
5.4.2 图像彩色空间变换运算效率分析 | 第68-69页 |
5.4.3 多视角立体视频解码的整体效率分析 | 第69-70页 |
5.5 本章小结 | 第70-71页 |
第六章 全文总结 | 第71-73页 |
6.1 全文回顾 | 第71-72页 |
6.2 未来展望 | 第72-73页 |
参考文献 | 第73-78页 |
致谢 | 第78-80页 |
攻读硕士学位期间已发表或录用的论文 | 第80-81页 |
上海交通大学硕士学位论文答辩决议书 | 第81-83页 |