摘要 | 第1-7页 |
Abstract | 第7-12页 |
第1章绪论 | 第12-19页 |
·研究背景及意义 | 第12-13页 |
·研究现状 | 第13-18页 |
·基于图像的虚拟视点生成技术 | 第13-15页 |
·基于三维模型的虚拟视点生成技术 | 第15-17页 |
·基于深度图像的虚拟视点生成技术 | 第17-18页 |
·本文的组织结构 | 第18-19页 |
第2章深度数据的获取 | 第19-30页 |
·目前常用获取深度数据的方案 | 第19-21页 |
·通过立体视觉技术获取深度信息 | 第19-20页 |
·通过采集设备获取深度信息 | 第20-21页 |
·实验选择的深度信息获取方式 | 第21页 |
·现有的深度数据获取设备 | 第21-23页 |
·微软Kinect | 第21-22页 |
·华硕Xtion PRO | 第22页 |
·创新Senz3D | 第22页 |
·微软Kinect 2.0 | 第22-23页 |
·实验选择的设备 | 第23页 |
·获取由Kinect采集到的数据 | 第23-26页 |
·实验使用的开发环境 | 第24页 |
·通过OpenNI获取由Kinect采集的数据 | 第24-25页 |
·通过Kinect for Windows SDK v2.0 获取由Kinect 2.0 采集的数据 | 第25-26页 |
·两代Kinect所得深度数据的对比 | 第26-27页 |
·Kinect 2.0 所得深度数据存在的问题 | 第27-28页 |
·本章小结 | 第28-30页 |
第3章深度数据的优化 | 第30-39页 |
·将深度数据转为深度图像 | 第30-32页 |
·使用伪彩色图像表示深度数据 | 第30-31页 |
·使用灰度图像表示深度数据 | 第31页 |
·使用线性化的方法生成深度图 | 第31-32页 |
·改进的深度图像生成方法 | 第32-33页 |
·基于累积分布概率的改进方法 | 第32页 |
·基于图像信息熵的改进方法 | 第32-33页 |
·实验结果与分析 | 第33-38页 |
·本章小结 | 第38-39页 |
第4章RGBD点云数据的获取 | 第39-49页 |
·深度图像与RGB图像对齐的意义 | 第39-40页 |
·目前已有的对齐方法 | 第40-41页 |
·基于深度数据的对齐方法 | 第41-46页 |
·将深度数据映射到空间坐标系 | 第41-43页 |
·微软Kinect摄像头标定算法 | 第43-44页 |
·通过OpenCV标定摄像头 | 第44-46页 |
·确定深度图像坐标与RGB图像坐标的映射关系 | 第46页 |
·获取带有RGB信息的点云数据 | 第46-47页 |
·实验结果与分析 | 第47-48页 |
·本章小结 | 第48-49页 |
第5章虚拟视点的生成 | 第49-57页 |
·三维图形的二维绘制 | 第49-50页 |
·常用的图形接口 | 第50-51页 |
·开放图形库OpenGL | 第50页 |
·微软Direct3D | 第50页 |
·实验选择的三维图形接口 | 第50-51页 |
·着色器 | 第51-52页 |
·顶点着色器 | 第51页 |
·几何着色器 | 第51-52页 |
·像素着色器 | 第52页 |
·计算着色器 | 第52页 |
·HLSL | 第52-53页 |
·通过D3D 11 完成虚拟视点的显示 | 第53-56页 |
·初始化Direct3D | 第53-54页 |
·使用Effect框架 | 第54页 |
·使用常量缓冲 | 第54页 |
·创建输入布局 | 第54-55页 |
·使用动态缓冲 | 第55页 |
·使用可编程着色器 | 第55-56页 |
·实验结果与分析 | 第56页 |
·本章小结 | 第56-57页 |
结论 | 第57-59页 |
本文工作总结 | 第57页 |
未来工作展望 | 第57-59页 |
参考文献 | 第59-61页 |
攻读学位期间取得的学术成果 | 第61-62页 |
攻读学位期间参与的研究项目 | 第62-63页 |
致谢 | 第63页 |