摘要 | 第10-12页 |
ABSTRACT | 第12-13页 |
第一章 绪论 | 第14-22页 |
1.1 课题的研究背景与意义 | 第14-16页 |
1.2 课题的研究现状和进展 | 第16-19页 |
1.2.1 关键帧选择 | 第16-17页 |
1.2.2 深度的获得 | 第17-18页 |
1.2.3 深度传播 | 第18-19页 |
1.2.4 立体合成 | 第19页 |
1.3 本文的主要研究内容 | 第19-21页 |
1.4 本文的组织安排 | 第21-22页 |
第二章 关键帧选取方法及相关技术介绍 | 第22-29页 |
2.1 引言 | 第22-23页 |
2.2 关键帧选取方法介绍 | 第23-26页 |
2.2.1 视频内容表征中的关键帧选取方法 | 第23-24页 |
2.2.2 三维重建中的关键帧选取方法 | 第24-25页 |
2.2.3 半自动2D-3D视频转换中的关键帧选取方法 | 第25-26页 |
2.3 位移双边滤波深度传播算法 | 第26-27页 |
2.4 关键帧的选取标准 | 第27-28页 |
2.5 本章小结 | 第28-29页 |
第三章 基于遮挡区域的关键帧选取方法 | 第29-43页 |
3.1 引言 | 第29-30页 |
3.2 利用最小重投影误差选取关键帧 | 第30-38页 |
3.2.1 检测遮挡区域 | 第31-33页 |
3.2.2 计算特征匹配比率 | 第33-35页 |
3.2.3 选取候选关键帧 | 第35-36页 |
3.2.4 选取关键帧 | 第36-38页 |
3.3 实验结果分析 | 第38-42页 |
3.3.1 客观评价 | 第38-42页 |
3.3.2 主观评价 | 第42页 |
3.4 本章小结 | 第42-43页 |
第四章 基于深度估计的关键帧选取方法 | 第43-59页 |
4.1 引言 | 第43页 |
4.2 视频的深度线索 | 第43-45页 |
4.2.1 单目深度线索 | 第43-45页 |
4.2.2 多目深度线索 | 第45页 |
4.3 利用小波变换估计深度图 | 第45-46页 |
4.4 利用边缘点分类选取关键帧 | 第46-53页 |
4.4.1 选取候选关键帧~(CF_1) | 第47-48页 |
4.4.2 分析前景物体与背景物体的颜色区别 | 第48-49页 |
4.4.3 通过前景物体面积更新关键帧 | 第49-50页 |
4.4.4 选取关键帧 | 第50-53页 |
4.5 实验结果及分析 | 第53-57页 |
4.5.1 客观评价 | 第54-56页 |
4.5.2 主观评价 | 第56-57页 |
4.6 本章小结 | 第57-59页 |
第五章 基于视觉关注的关键帧选取方法 | 第59-69页 |
5.1 引言 | 第59页 |
5.2 利用视觉关注转移量选取关键帧 | 第59-63页 |
5.2.1 构建时域关注模型 | 第60页 |
5.2.2 构建空域关注模型 | 第60-61页 |
5.2.3 构建时空域混合关注模型 | 第61-62页 |
5.2.4 选取关键帧 | 第62-63页 |
5.3 实验结果及分析 | 第63-68页 |
5.3.1 客观评价 | 第65页 |
5.3.2 主观评价 | 第65-68页 |
5.4 本章小结 | 第68-69页 |
第六章 总结 | 第69-72页 |
6.1 本文工作总结 | 第69-70页 |
6.2 下一步工作展望 | 第70-72页 |
参考文献 | 第72-80页 |
致谢 | 第80-81页 |
攻读硕士学位期间的研究成果 | 第81-83页 |
学位论文评阅及答辩情况表 | 第83页 |