Kinect数据修复方法研究及其在立体视频中的应用
摘要 | 第5-6页 |
ABSTRACT | 第6-7页 |
符号对照表 | 第11-13页 |
缩略语对照表 | 第13-16页 |
第一章 绪论 | 第16-22页 |
1.1 课题的意义和目的 | 第16-17页 |
1.2 深度数据修复研究现状 | 第17-19页 |
1.3 立体视觉概念介绍与发展现状 | 第19-21页 |
1.3.1 立体视频概念介绍 | 第19-20页 |
1.3.2 立体视频发展介绍 | 第20-21页 |
1.4 本文的主要内容 | 第21-22页 |
第二章 Kinect数据形成立体视频原理 | 第22-32页 |
2.1 Kinect数据格式与获取原理 | 第22-24页 |
2.2 使用Kinect数据重建点云数据 | 第24-29页 |
2.3 立体视频显示技术介绍 | 第29-31页 |
2.3.1 立体视频显示技术分类 | 第29-30页 |
2.3.2 立体视频显示效果的影响因素 | 第30-31页 |
2.4 本章小结 | 第31-32页 |
第三章 立体数据修复方法 | 第32-46页 |
3.1 深度数据噪声原因分析 | 第32-33页 |
3.2 融合结构信息的修复模型 | 第33-42页 |
3.2.1 基于融合的图像修复 | 第33-35页 |
3.2.2 结构导向的信息融合 | 第35-36页 |
3.2.3 修复结果的评价方法 | 第36-42页 |
3.3 背景信息的应用 | 第42页 |
3.3.1 应用场合 | 第42页 |
3.3.2 背景缓冲区模型 | 第42页 |
3.4 彩色图像的修复 | 第42-45页 |
3.4.1 修复原因分析 | 第42-43页 |
3.4.2 修复方法介绍 | 第43-45页 |
3.5 本章小结 | 第45-46页 |
第四章 立体视频会议系统的实现 | 第46-66页 |
4.1 立体视频会议系统实现需求 | 第46-47页 |
4.1.1 需求分析 | 第46页 |
4.1.2 具体要求 | 第46-47页 |
4.2 项目开发环境与第三方库 | 第47-49页 |
4.2.1 开发与运行环境 | 第47-48页 |
4.2.2 第三方库介绍与选用原因 | 第48-49页 |
4.3 系统的框架流程与模块设计 | 第49-58页 |
4.3.1 系统组成框图与运行流程 | 第49-50页 |
4.3.2 设备驱动模块设计 | 第50-53页 |
4.3.3 高速缓冲区设计 | 第53-55页 |
4.3.4 修复算法模块设计 | 第55-56页 |
4.3.5 网络传输模块设计 | 第56-57页 |
4.3.6 立体成像模块设计 | 第57-58页 |
4.4 计算加速 | 第58-62页 |
4.4.1 多线程加速原理分析 | 第58-59页 |
4.4.2 多线程加速深度修复 | 第59-60页 |
4.4.3 图形处理器计算加速介绍 | 第60页 |
4.4.4 模型重建加速的CUDA核函数 | 第60-61页 |
4.4.5 利用核函数参数预加载进行修复加速 | 第61-62页 |
4.5 系统实现效果 | 第62-65页 |
4.5.1 系统主界面 | 第62-63页 |
4.5.2 各类型视图界面介绍 | 第63-65页 |
4.6 本章小结 | 第65-66页 |
第五章 总结与展望 | 第66-68页 |
5.1 本文工作总结 | 第66页 |
5.2 未来工作展望 | 第66-68页 |
参考文献 | 第68-70页 |
致谢 | 第70-72页 |
作者简介 | 第72-73页 |