摘要 | 第1-7页 |
ABSTRACT | 第7-20页 |
第一章 绪论 | 第20-38页 |
·引言 | 第20页 |
·本文研究背景及意义 | 第20-22页 |
·自由视点视频研究现状 | 第22-34页 |
·自由视点绘制技术 | 第22-30页 |
·自由视点系统研究动态 | 第30-34页 |
·论文的主要工作和创新之处 | 第34-35页 |
·论文的内容安排 | 第35-36页 |
·本章小结 | 第36-38页 |
第二章 DIBR自由视点视频编解码框架及其关键技术 | 第38-48页 |
·引言 | 第38-39页 |
·DIBR自由视点系统结构 | 第39-40页 |
·DIBR自由视点系统配置方案 | 第40-42页 |
·本文提出的DIBR自由视点视频编解码框架 | 第42-45页 |
·编解码框架中的关键技术及分析 | 第45-47页 |
·图像校正技术 | 第45页 |
·立体匹配技术 | 第45-46页 |
·多视点视频编解码 | 第46页 |
·虚拟视点绘制技术 | 第46页 |
·显示方式 | 第46-47页 |
·本章小结 | 第47-48页 |
第三章 立体匹配原理及算法简介 | 第48-66页 |
·引言 | 第48页 |
·深度值与视差值的转化关系 | 第48-50页 |
·立体匹配中存在的问题 | 第50-54页 |
·立体匹配算法简介 | 第54-62页 |
·局部匹配方法 | 第55-57页 |
·基于固定窗的块匹配 | 第56页 |
·基于自适应加权窗的块匹配 | 第56-57页 |
·全局匹配方法 | 第57-62页 |
·动态规划算法 | 第58-59页 |
·基于马尔科夫随机场的全局匹配算法 | 第59-62页 |
·基于图像分割的全局匹配算法 | 第62-65页 |
·本章小结 | 第65-66页 |
第四章 基于摄像机参数的几何校正算法 | 第66-88页 |
·引言 | 第66-67页 |
·齐次坐标系 | 第67-68页 |
·世界坐标系,摄像机坐标系和图像坐标系之间的变换 | 第68-73页 |
·世界坐标系与摄像机坐标系 | 第68-70页 |
·针孔摄像机模型 | 第70-71页 |
·摄像机坐标系到图像坐标系的变换 | 第71-72页 |
·投影矩阵 | 第72-73页 |
·摄像机配置 | 第73-74页 |
·极线几何学 | 第74-76页 |
·极线的公式推导 | 第76-77页 |
·基于摄像机参数的极线校正算法 | 第77-81页 |
·摄像机标定 | 第77-78页 |
·极线校正算法 | 第78-81页 |
·实验结果与分析 | 第81-87页 |
·测试数据 | 第81-82页 |
·校正流程 | 第82-84页 |
·校正结果分忻 | 第84-87页 |
·本章小结 | 第87-88页 |
第五章 基于图像分割和分层置信传播的立体匹配方法 | 第88-116页 |
·引言 | 第88-89页 |
·立体匹配方法框架 | 第89-90页 |
·初始视差估计 | 第90-94页 |
·失配度量准则 | 第91页 |
·快速自适应加权聚合 | 第91-94页 |
·像素分类 | 第94-95页 |
·均值漂移图像分割方法 | 第95-99页 |
·均值漂移算法 | 第95-97页 |
·基于均值漂移算法的图像分割方法 | 第97-99页 |
·平面拟合和代价修正 | 第99-103页 |
·参数表面模型 | 第99-100页 |
·鲁棒性平面拟合方法 | 第100-102页 |
·初始匹配代价修正 | 第102-103页 |
·基于分层置信传播的全局立体匹配算法 | 第103-107页 |
·快速消息计算 | 第104-105页 |
·消息交替更新 | 第105-106页 |
·分层预测消息初始值 | 第106-107页 |
·平滑约束项的改进 | 第107页 |
·实验结果与分析 | 第107-114页 |
·参数设置 | 第107-108页 |
·标准测试图像及评价方法 | 第108页 |
·测试图像视差估计结果及分析 | 第108-112页 |
·实拍图像视差估计测试 | 第112-114页 |
·本章小结 | 第114-116页 |
第六章 基于颜色校正的多视点视频压缩方法 | 第116-140页 |
·引言 | 第116页 |
·多视点颜色校正 | 第116-122页 |
·摄像机成像模型 | 第117-118页 |
·基于SURF特征点匹配的颜色校正算法 | 第118页 |
·SURF特征点匹配 | 第118-122页 |
·SURF特征点检测 | 第118-120页 |
·SURF特征点描述符 | 第120-122页 |
·特征点匹配 | 第122页 |
·摄像机乘加差异参数的计算 | 第122页 |
·多视点压缩编解码方法 | 第122-128页 |
·多视点编码帧间预测结构 | 第123-126页 |
·多视点视频编码性能评价标准 | 第126-128页 |
·实验结果与分析 | 第128-139页 |
·多视点颜色校正 | 第128-133页 |
·SURF特征点匹配结果 | 第128-131页 |
·颜色校正结果 | 第131-133页 |
·MVC编码R-D性能分析 | 第133-138页 |
·HBP预测结构的编码效率 | 第133-136页 |
·GOP大小对编码性能的影响 | 第136-137页 |
·视点距离对于编码性能的影响 | 第137-138页 |
·多视点颜色校正对于MVC编码性能的提升 | 第138-139页 |
·本章小结 | 第139-140页 |
第七章 基于深度和图像的虚拟视点绘制方法 | 第140-158页 |
·引言 | 第140-141页 |
·基于深度图像的视点绘制新方法 | 第141页 |
·虚拟视点图像和深度生成 | 第141-146页 |
·3D变换模型 | 第142-143页 |
·视点同步生成机制 | 第143-145页 |
·背景伪影消除 | 第145-146页 |
·多路虚拟视点合并 | 第146-147页 |
·基于深度的边界处理与空洞填补 | 第147-149页 |
·实验结果与分析 | 第149-157页 |
·测试序列 | 第149-153页 |
·实验结果与分析 | 第153-157页 |
·本章小结 | 第157-158页 |
第八章 基于虚拟视点绘制的3D立体显示方法 | 第158-174页 |
·引言 | 第158页 |
·立体显示原理 | 第158-160页 |
·立体视觉的解剖和生理学基础 | 第158-159页 |
·立体显示方法 | 第159-160页 |
·立体显示技术简介 | 第160-165页 |
·辅助式立体显示技术 | 第160-163页 |
·分色法 | 第160-162页 |
·分光法 | 第162页 |
·分时法 | 第162-163页 |
·裸眼立体显示技术 | 第163-165页 |
·狭缝光栅式 | 第163-164页 |
·柱透镜光栅式 | 第164-165页 |
·基于深度和图像绘制的3D立体图像生成 | 第165-170页 |
·深度感与视差的关系 | 第166-167页 |
·虚拟摄像机对的视差调节方法 | 第167-169页 |
·虚拟立体图像对生成 | 第169-170页 |
·实验结果与分析 | 第170-173页 |
·本章小结 | 第173-174页 |
第九章 总结与展望 | 第174-178页 |
·全文工作总结 | 第174-175页 |
·未来研究方向 | 第175-178页 |
参考文献 | 第178-184页 |
致谢 | 第184-186页 |
在读期间发表的学术论文与取得的研究成果 | 第186-188页 |
附录 | 第188页 |