摘要 | 第4-5页 |
Abstract | 第5-6页 |
第1章 绪论 | 第9-17页 |
1.1 课题背景与意义 | 第9-11页 |
1.2 国内外研究现状 | 第11-15页 |
1.2.1 2D-3D转换中深度图生成的研究现状 | 第11-14页 |
1.2.2 视觉关注机制的研究现状 | 第14-15页 |
1.3 内容和章节安排 | 第15-17页 |
第2章 基于视觉关注的前景深度区域提取 | 第17-30页 |
2.1 基于高斯混合模型的图像同质性区域软提取 | 第17-22页 |
2.1.1 颜色空间的量化 | 第17-18页 |
2.1.2 基于位置与颜色相似性的高斯混合模型聚类 | 第18-22页 |
2.2 图像显著性估计 | 第22-25页 |
2.2.1 全局独特性显著性计算方法 | 第22-23页 |
2.2.2 颜色空间分布显著性计算方法 | 第23-24页 |
2.2.3 全局独特性和颜色空间分布提取显著性算法的融合 | 第24-25页 |
2.3 结合视觉关注的前景区域提取 | 第25-26页 |
2.4 实验结果与分析 | 第26-28页 |
2.5 本章小结 | 第28-30页 |
第3章 基于场景分类和视觉关注的深度图生成 | 第30-71页 |
3.1 算法整体流程 | 第30-31页 |
3.2 基于SIFT和词袋模型的场景分类 | 第31-37页 |
3.2.1 SIFT特征 | 第32-33页 |
3.2.2 Dense SIFT与Opponent SIFT | 第33-34页 |
3.2.3 词袋模型与词汇直方图的构造 | 第34-35页 |
3.2.4 多类别分类SVM模型的构造 | 第35-37页 |
3.3 基于均值漂移算法与BOW模型的区域识别 | 第37-43页 |
3.3.1 均值漂移算法的基本流程 | 第37-39页 |
3.3.2 均值漂移算法的改进 | 第39-41页 |
3.3.3 基于SIFT和词袋模型的场景分类及区域识别算法 | 第41-43页 |
3.4 基于区域识别的自然景物深度图生成 | 第43-45页 |
3.5 基于透视深度线索的非室外图像深度图生成 | 第45-48页 |
3.6 基于地面检测的室内深度图生成 | 第48-50页 |
3.6.1 地面检测方法 | 第48-50页 |
3.6.2 基于地面的室内深度图生成算法 | 第50页 |
3.7 实验结果与分析 | 第50-70页 |
3.7.1 基于BOW模型的场景分类算法的实验结果及分析 | 第51-52页 |
3.7.2 改进的Meanshift算法的实验结果及分析 | 第52-58页 |
3.7.3 基于BOW模型的区域识别算法的实验结果及分析 | 第58-64页 |
3.7.4 基于透视线索的深度图生成算法的实验结果及分析 | 第64-66页 |
3.7.5 基于地面检测的深度图生成算法的实验结果及分析 | 第66页 |
3.7.6 深度图生成算法与实际场景深度图的比较 | 第66-69页 |
3.7.7 基于场景分类的深度图生成算法与视觉关注算法的结合 | 第69-70页 |
3.8 本章小结 | 第70-71页 |
第4章 基于图像深度匹配和视觉关注的深度图生成 | 第71-85页 |
4.1 算法整体流程 | 第71-72页 |
4.2 基于GIST特征的图像匹配算法 | 第72-74页 |
4.2.1 GIST特征提取 | 第72-73页 |
4.2.2 基于GIST特征的图像选取 | 第73-74页 |
4.3 基于SIFT流的像素匹配 | 第74-76页 |
4.4 基于IRLS的深度估计与优化 | 第76-80页 |
4.5 实验结果与分析 | 第80-84页 |
4.6 本章小结 | 第84-85页 |
结论 | 第85-86页 |
参考文献 | 第86-92页 |
致谢 | 第92页 |