摘要 | 第5-7页 |
ABSTRACT | 第7-9页 |
符号对照表 | 第13-14页 |
缩略语对照表 | 第14-19页 |
第一章 绪论 | 第19-37页 |
1.1 引言 | 第19-20页 |
1.2 三维视频系统概述 | 第20-26页 |
1.2.1 三维视频的数据格式 | 第20-21页 |
1.2.2 三维视频数据的采集 | 第21-23页 |
1.2.3 三维视频的编码技术 | 第23页 |
1.2.4 虚拟视点合成技术 | 第23-25页 |
1.2.5 三维视频的显示技术 | 第25-26页 |
1.3 三维视频编码标准发展历程 | 第26-28页 |
1.4 三维视频编码关键技术研究 | 第28-34页 |
1.4.1 纹理视频的关键编码技术 | 第28-31页 |
1.4.2 深度图的关键编码技术 | 第31-33页 |
1.4.3 率失真优化理论 | 第33-34页 |
1.5 论文研究内容及成果 | 第34-37页 |
第二章 三维视频编码的率失真优化 | 第37-55页 |
2.1 率失真理论 | 第37-44页 |
2.1.1 信息量 | 第37-40页 |
2.1.2 失真测度 | 第40-42页 |
2.1.3 率失真函数 | 第42-44页 |
2.2 视频编码的率失真优化 | 第44-48页 |
2.2.1 视频编码的失真测度 | 第44-45页 |
2.2.2 视频编码的率失真函数 | 第45-46页 |
2.2.3 视频的率失真优化方法 | 第46-48页 |
2.3 三维视频编码中深度率失真优化研究 | 第48-52页 |
2.3.1 虚拟视点合成失真算法 | 第49-51页 |
2.3.2 拉格朗日乘子算法 | 第51-52页 |
2.4 本章小结 | 第52-55页 |
第三章 基于多点视差变化的3D-HEVC虚拟视点合成失真估计算法 | 第55-75页 |
3.1 引言 | 第55-56页 |
3.2 深度失真与视差变化的关系 | 第56-59页 |
3.3 基于多点视差变化的虚拟视点合成失真估计算法 | 第59-68页 |
3.3.1 虚拟视点合成失真分析 | 第59-62页 |
3.3.2 虚拟视点合成失真估计算法 | 第62-68页 |
3.4 实验结果与分析 | 第68-72页 |
3.4.1 实验设计与参数配置 | 第68-69页 |
3.4.2 编码性能与编码复杂度比较与分析 | 第69-72页 |
3.5 本章小结 | 第72-75页 |
第四章 3D-HEVC深度图编码的拉格朗日乘子计算方法研究 | 第75-109页 |
4.1 引言 | 第75-77页 |
4.2 3D-HEVC深度拉格朗日乘子计算方法 | 第77-79页 |
4.3 基于纹理与深度量化步长的自适应拉格朗日乘子模型 | 第79-95页 |
4.3.1 拉格朗日乘子与编码性能关系的分析 | 第79-82页 |
4.3.2 影响深度拉格朗日乘子的因素分析 | 第82-86页 |
4.3.3 基于量化步长的自适应拉格朗日乘子模型 | 第86-88页 |
4.3.4 实验结果与分析 | 第88-95页 |
4.4 基于R?Q_(step)与D?Q_(step)模型的拉格朗日乘子计算方法 | 第95-106页 |
4.4.1 深度率失真优化失真项模型分析 | 第95-100页 |
4.4.2 拉格朗日乘子计算方法 | 第100-103页 |
4.4.3 实验结果与分析 | 第103-106页 |
4.5 本章小结 | 第106-109页 |
第五章 基于重建纹理失真的深度率失真优化模型 | 第109-127页 |
5.1 引言 | 第109-110页 |
5.2 基于重建纹理失真的虚拟视点合成失真模型 | 第110-119页 |
5.2.1 3D-HEVC虚拟视点合成失真方法 | 第110-111页 |
5.2.2 虚拟视点合成失真影响因子研究 | 第111-114页 |
5.2.3 基于重建纹理失真的合成失真模型 | 第114-119页 |
5.3 基于重建纹理失真的深度率失真优化模型 | 第119-121页 |
5.4 实验结果与分析 | 第121-124页 |
5.5 本章小结 | 第124-127页 |
第六章 总结和展望 | 第127-131页 |
参考文献 | 第131-141页 |
致谢 | 第141-143页 |
作者简介 | 第143-145页 |