基于目标识别定位技术的增强现实系统
| 摘要 | 第5-6页 |
| ABSTRACT | 第6-7页 |
| 第1章 引言 | 第8-16页 |
| 1.1 增强现实技术研究背景 | 第8-9页 |
| 1.1.1 增强现实的基本问题 | 第8-9页 |
| 1.2 增强现实研究意义 | 第9-14页 |
| 1.2.1 增强现实的研究现状 | 第9-11页 |
| 1.2.2 虚拟物体注册 | 第11页 |
| 1.2.3 识别和跟踪 | 第11-13页 |
| 1.2.4 增强现实的应用意义 | 第13-14页 |
| 1.3 论文研究内容 | 第14-15页 |
| 1.4 论文结构安排 | 第15-16页 |
| 第2章 系统综述 | 第16-33页 |
| 2.1 本章综述 | 第16页 |
| 2.2 增强现实系统相关概念 | 第16-19页 |
| 2.2.1 帧 | 第16页 |
| 2.2.2 视频 | 第16-17页 |
| 2.2.3 场景 | 第17页 |
| 2.2.4 基于计算机视觉的识别 | 第17页 |
| 2.2.5 视频跟踪 | 第17-18页 |
| 2.2.6 分类器 | 第18页 |
| 2.2.7 生成式模型和判别式模型 | 第18页 |
| 2.2.8 单应矩阵 | 第18-19页 |
| 2.2.9 校正摄像头 | 第19页 |
| 2.2.10 宽基线匹配 | 第19页 |
| 2.3 增强现实系统基本框架 | 第19-20页 |
| 2.4 增强现实相关技术算法综述 | 第20-33页 |
| 2.4.1 局部特征算法综述 | 第20-29页 |
| 2.4.2 分类器综述 | 第29-32页 |
| 2.4.3 跟踪算法综述 | 第32-33页 |
| 第3章 随机分类器 | 第33-43页 |
| 3.1 关键点提取 | 第33-35页 |
| 3.1.1 提取方法 | 第33页 |
| 3.1.2 FASTer特征检测子 | 第33-34页 |
| 3.1.3 my FAST | 第34-35页 |
| 3.2 离线训练阶段 | 第35-39页 |
| 3.2.1 自动合成训练样本 | 第35-36页 |
| 3.2.2 稳定的关键点集 | 第36-37页 |
| 3.2.3 半朴素贝叶斯分类器 | 第37-39页 |
| 3.3 在线识别阶段 | 第39-41页 |
| 3.3.1 关键点分类 | 第39页 |
| 3.3.2 单应矩阵估计 | 第39-41页 |
| 3.4 跟踪目标 | 第41-43页 |
| 第4章 虚拟融合 | 第43-45页 |
| 4.1 OpenGL | 第43-44页 |
| 4.2 增强现实效果 | 第44-45页 |
| 第5章 实验设计与结果 | 第45-49页 |
| 5.1 实验设计 | 第45页 |
| 5.2 实验结果及分析 | 第45-49页 |
| 第6章 总结与展望 | 第49-50页 |
| 参考文献 | 第50-53页 |
| 致谢 | 第53-54页 |