中文摘要 | 第1-4页 |
ABSTRACT | 第4-9页 |
第一章 绪论 | 第9-26页 |
·立体图像技术研究背景与发展历史 | 第9-12页 |
·研究背景 | 第9-10页 |
·发展历史 | 第10-12页 |
·立体图像技术研究现状 | 第12-19页 |
·立体图像内容获取技术研究 | 第12-16页 |
·立体图像编码技术研究 | 第16-18页 |
·立体图像显示技术研究 | 第18-19页 |
·人类立体视觉特性 | 第19-23页 |
·视觉产生的生理基础 | 第19-22页 |
·空间知觉 | 第22页 |
·运动知觉与动态深度线索 | 第22-23页 |
·双眼融像 | 第23-24页 |
·本文的主要工作和内容 | 第24-26页 |
第二章 立体深度信息挖掘理论基础 | 第26-36页 |
·深度图研究背景 | 第26-27页 |
·深度图采集方案 | 第27-29页 |
·主动深度采集技术 | 第27-28页 |
·被动深度采集技术 | 第28-29页 |
·基于立体像对的深度信息挖掘理论 | 第29-32页 |
·平行成像系统中的深度信息获取原理 | 第29-31页 |
·会聚成像系统中的深度信息获取原理 | 第31-32页 |
·两种成像系统的比较 | 第32页 |
·立体匹配算法理论分析 | 第32-35页 |
·立体匹配约束条件分析 | 第33-35页 |
·立体匹配算法局限性分析 | 第35页 |
·本章小结 | 第35-36页 |
第三章 基于深度信息的立体视频处理框架 | 第36-51页 |
·ATTEST 系统框架 | 第36-39页 |
·Kauff 系统框架 | 第39-41页 |
·本文提出的立体电视处理框架 | 第41-50页 |
·深度图提取策略 | 第41-44页 |
·系统编码策略 | 第44-45页 |
·虚拟视点重建技术 | 第45-50页 |
·本章小结 | 第50-51页 |
第四章 深度信息挖掘算法研究 | 第51-76页 |
·立体匹配算法研究现状 | 第51-53页 |
·区域匹配算法 | 第51-52页 |
·特征匹配算法 | 第52页 |
·相位匹配算法 | 第52-53页 |
·立体匹配算法研究难点 | 第53-54页 |
·分数级像素立体匹配算法 | 第54-56页 |
·匹配约束条件 | 第55页 |
·分数级像素立体匹配理论基础 | 第55-56页 |
·代价函数设计 | 第56页 |
·匹配窗口设计 | 第56页 |
·DCT 内插算法 | 第56-59页 |
·传统的二维DCT 变换 | 第57-58页 |
·DCT 内插算法 | 第58-59页 |
·半相位DCT 内插算法 | 第59-61页 |
·实验结果 | 第61-74页 |
·实验环境和素材 | 第62-63页 |
·实验结果和分析 | 第63-74页 |
·本章小结 | 第74-76页 |
第五章 深度图后处理算法研究 | 第76-88页 |
·数字全变差模型基本理论 | 第76-79页 |
·全变差模型研究背景 | 第76-77页 |
·全变差模型理论基础 | 第77-78页 |
·全变差模型离散化 | 第78-79页 |
·分数级异向性离散数字全变差模型 | 第79-82页 |
·视差图后处理模型 | 第80-81页 |
·各向异性离散策略 | 第81页 |
·各向异性离散矩阵 | 第81-82页 |
·实验结果和分析 | 第82-87页 |
·本章小结 | 第87-88页 |
第六章 深度图质量客观评价算法研究 | 第88-102页 |
·图像质量评价方法概述 | 第88-90页 |
·图像质量主观评价方法 | 第88-89页 |
·图像质量客观评价方法 | 第89-90页 |
·深度图质量评价方法研究 | 第90页 |
·基于Neyman-Pearson 判决准则的深度图质量评价算法研究 | 第90-93页 |
·高斯视差分布模型 | 第91页 |
·Neyman-Pearson 检验统计量构造 | 第91-92页 |
·深度图评价策略 | 第92-93页 |
·实验结果和分析 | 第93-101页 |
·实验一:基于标准视差图的客观评价实验 | 第93-100页 |
·实验二:任意视差图质量的客观评价 | 第100-101页 |
·本章小结 | 第101-102页 |
第七章 结束语 | 第102-104页 |
参考文献 | 第104-113页 |
发表论文和参加科研情况说明 | 第113-115页 |
致谢 | 第115-116页 |