自由视点视频中的虚拟视点绘制技术研究
摘要 | 第4-6页 |
abstract | 第6-7页 |
引言 | 第11-13页 |
1 绪论 | 第13-18页 |
1.1 课题研究背景及意义 | 第13-14页 |
1.2 国内外研究现状分析 | 第14-16页 |
1.3 本文研究内容及创新点 | 第16-17页 |
1.4 本文结构安排 | 第17-18页 |
2 自由视点视频系统框架 | 第18-42页 |
2.1 自由视点视频系统 | 第18-21页 |
2.2 自由视点视频显示技术 | 第21-23页 |
2.2.1 眼镜式立体显示技术 | 第21-22页 |
2.2.2 裸眼式立体显示技术 | 第22-23页 |
2.3 虚拟视点绘制技术 | 第23-35页 |
2.3.1 虚拟视点绘制的基本概念 | 第23-24页 |
2.3.2 基于深度的虚拟视点绘制技术 | 第24-32页 |
2.3.3 DIBR方法中的关键问题 | 第32-35页 |
2.4 三维视频评价标准 | 第35-41页 |
2.4.1 主观评价标准 | 第36-37页 |
2.4.2 客观评价标准 | 第37-41页 |
2.5 本章小结 | 第41-42页 |
3 基于深度图像分割的虚拟视点绘制 | 第42-60页 |
3.1 问题提出 | 第42页 |
3.2 算法的总体框架 | 第42页 |
3.3 深度图像的预处理 | 第42-46页 |
3.3.1 深度图像可信区域分析 | 第43-45页 |
3.3.2 Canny算子边缘检测标记 | 第45-46页 |
3.3.3 伪轮廓去除技术 | 第46页 |
3.4 图像分割及视点绘制 | 第46-53页 |
3.4.1 多阈值图像分割 | 第47-50页 |
3.4.2 基于分割区域的视点绘制 | 第50-52页 |
3.4.3 图像融合 | 第52-53页 |
3.5 实验结果与分析 | 第53-59页 |
3.6 本章小结 | 第59-60页 |
4 基于深度引导空洞填补的虚拟视点绘制 | 第60-70页 |
4.1 问题提出 | 第60页 |
4.2 算法的整体流程 | 第60-61页 |
4.3 基于深度的插值算法 | 第61-63页 |
4.3.1 基本原理 | 第61-62页 |
4.3.2 基于深度的插值流程 | 第62-63页 |
4.4 基于区域的空洞填补算法 | 第63-67页 |
4.4.1 算法流程 | 第63-64页 |
4.4.2 理论基础 | 第64-65页 |
4.4.3 优先级的计算 | 第65-66页 |
4.4.4 最佳匹配块的选择 | 第66-67页 |
4.4.5 搜索区域和为轮廓的后处理 | 第67页 |
4.5 实验结果与分析 | 第67-69页 |
4.6 本章小结 | 第69-70页 |
5 基于时空域相结合的空洞填补的虚拟视点绘制 | 第70-83页 |
5.1 问题提出 | 第70页 |
5.2 算法的基本框架 | 第70-71页 |
5.3 彩色纹理背景提取 | 第71-74页 |
5.3.1 高斯混合模型原理 | 第71-72页 |
5.3.2 高斯混合背景建模 | 第72-74页 |
5.4 时域相关性深度信息 | 第74-76页 |
5.4.1 K-means算法原理 | 第74-75页 |
5.4.2 深度信息提取算法流程 | 第75-76页 |
5.5 空洞填补 | 第76-78页 |
5.5.1 背景区域的空洞填补 | 第76-77页 |
5.5.2 边界区域的空洞填补 | 第77-78页 |
5.6 实验结果与分析 | 第78-82页 |
5.7 本章小结 | 第82-83页 |
6 总结与展望 | 第83-85页 |
6.1 本文工作总结 | 第83-84页 |
6.2 下一步的工作 | 第84-85页 |
参考文献 | 第85-89页 |
在学研究成果 | 第89-90页 |
致谢 | 第90页 |