基于运动矢量的视频关键帧提取及虚拟现实显示方法研究
摘要 | 第3-4页 |
abstract | 第4页 |
第1章 绪论 | 第8-14页 |
1.1 研究背景与意义 | 第8-9页 |
1.2 关键帧与虚拟现实技术研究现状 | 第9-11页 |
1.3 创新点 | 第11-12页 |
1.4 本文组织结构 | 第12-14页 |
第2章 视频关键帧提取技术简述 | 第14-20页 |
2.1 视频信息的特点 | 第14-16页 |
2.2 视频的组织架构 | 第16-18页 |
2.3 视频镜头切换方式 | 第18页 |
2.4 视频帧的内部特点 | 第18-20页 |
第3章 基于运动矢量的视频关键帧提取算法 | 第20-30页 |
3.1 视频镜头检测方法 | 第20-23页 |
3.1.1 连续视频帧间差异计算 | 第21-22页 |
3.1.2 视频镜头边缘检测算法 | 第22-23页 |
3.2 基于运动矢量的活跃区域划分 | 第23-27页 |
3.2.1 运动矢量的计算 | 第24-25页 |
3.2.2 基于运动矢量的弱连续活跃区域划分 | 第25-27页 |
3.3 视频关键帧提取策略 | 第27-28页 |
3.4 小结 | 第28-30页 |
第4章 虚拟现实环境下结果显示与优化 | 第30-36页 |
4.1 虚拟现实技术简述 | 第30-31页 |
4.2 虚拟现实设备与虚拟现实开发环境 | 第31-32页 |
4.3 虚拟现实显示模式研究 | 第32-36页 |
4.3.1 研究目的 | 第33页 |
4.3.2 受试者 | 第33页 |
4.3.3 实验变量 | 第33-34页 |
4.3.4 实验过程 | 第34页 |
4.3.5 实验度量与分析方法 | 第34-36页 |
第5章 实验结果 | 第36-50页 |
5.1 视频关键帧提取结果评价 | 第36-41页 |
5.1.1 视频误采样概率 | 第37-38页 |
5.1.2 保真度 | 第38页 |
5.1.3 客观度量结果 | 第38-40页 |
5.1.4 关键帧提取结果及算法优点分析 | 第40-41页 |
5.2 虚拟现实环境下的显示优化结果 | 第41-47页 |
5.2.1 明亮场景与昏暗场景下的对比 | 第41-42页 |
5.2.2 熟悉场景与陌生场景下对比 | 第42-43页 |
5.2.3 不同任务出现模式对比 | 第43-45页 |
5.2.4 光照程度的影响 | 第45-46页 |
5.2.5 环境熟悉程度的影响 | 第46-47页 |
5.2.6 信息显示位置的影响 | 第47页 |
5.3 小结 | 第47-50页 |
第6章 总结与展望 | 第50-52页 |
6.1 总结 | 第50-51页 |
6.2 展望 | 第51-52页 |
参考文献 | 第52-56页 |
发表论文和参加科研情况说明 | 第56-58页 |
致谢 | 第58页 |