摘要 | 第1-5页 |
ABSTRACT | 第5-10页 |
第一章 绪论 | 第10-20页 |
·增强现实概述 | 第10-12页 |
·增强现实的发展动态 | 第12-15页 |
·国外研究动态 | 第12-14页 |
·国内研究动态 | 第14-15页 |
·选题背景与研究意义 | 第15-18页 |
·本文的主要工作与论文结构 | 第18-20页 |
第二章 系统总体设计和开发环境 | 第20-29页 |
·系统基本描述 | 第20页 |
·系统的应用环境 | 第20-21页 |
·系统的构架 | 第21-22页 |
·系统运行环境 | 第22-24页 |
·硬件规格 | 第22页 |
·iPhone 对AR 应用的支持 | 第22-23页 |
·系统的软件环境 | 第23-24页 |
·开发环境 | 第24-28页 |
·开发语言 | 第24-25页 |
·OpenGL ES | 第25-28页 |
·本章小结 | 第28-29页 |
第三章 系统标志物的跟踪注册研究 | 第29-46页 |
·系统标志物的设计 | 第30-32页 |
·标准物跟踪的基本原理 | 第31页 |
·影响本系统标志物识别的可能因素 | 第31-32页 |
·Marker 识别过程 | 第32-41页 |
·标志物的检测 | 第33-36页 |
·图像的二值化处理 | 第33-35页 |
·二值化处理的性能优化 | 第35-36页 |
·连通域提取和轮廓跟踪 | 第36-37页 |
·Marker 模版的正规化 | 第37-39页 |
·特征点提取 | 第39-41页 |
·基于边缘检测的标志物跟踪算法 | 第41-45页 |
·改进需求 | 第41页 |
·设计思路 | 第41页 |
·主要步骤 | 第41-44页 |
·边缘像素检测 | 第41-42页 |
·线段提取 | 第42-43页 |
·线段合并 | 第43页 |
·边线延长 | 第43-44页 |
·四边形合成 | 第44页 |
·实验结果 | 第44-45页 |
·本章小结 | 第45-46页 |
第四章 基于iPhone 的增强现实关键技术实现 | 第46-56页 |
·本文使用的iPhone 相关技术 | 第46-47页 |
·Core Animation | 第46-47页 |
·OpenGL ES | 第47页 |
·视频数据捕获 | 第47-51页 |
·通过PLCameraController 获取preview 图像 | 第48-49页 |
·挂载自定义camera callback,从video buffer 中获取图像 | 第49-50页 |
·使用UIGetScreenImage()等屏显抓取函数 | 第50页 |
·使用PLCameraController 的_createPreviewImage 或__create PreviewIOSurface 方法 | 第50页 |
·跟踪IOSurface,通过IOSurface 的原始frame 数据获取图像 | 第50-51页 |
·使用iPhone OS 4 中的原生接口 | 第51页 |
·小结 | 第51页 |
·Marker 检测 | 第51-52页 |
·在iPhone OS 上使用OpenGL ES | 第52页 |
·虚拟物件叠加 | 第52-53页 |
·程序构架及流程 | 第53-55页 |
·性能优化 | 第55页 |
·本章小结 | 第55-56页 |
第五章 实验结果分析 | 第56-67页 |
·iPhone 摄像头的标定 | 第56-64页 |
·针孔模型与摄像机坐标系 | 第56-57页 |
·摄像机的内部参数 | 第57-60页 |
·摄像机的外部参数 | 第60-62页 |
·世界坐标系与摄像机坐标系 | 第60-61页 |
·世界坐标系3D 与图像坐标系2D 的关系 | 第61-62页 |
·实验结果 | 第62-64页 |
·实验效果 | 第64-66页 |
·本章小结 | 第66-67页 |
第六章 问题与展望 | 第67-69页 |
·总结 | 第67页 |
·存在的不足以及展望 | 第67-69页 |
致谢 | 第69-70页 |
参考文献 | 第70-73页 |
硕士期间取得的研究成果 | 第73-74页 |