摘要 | 第5-6页 |
abstract | 第6-7页 |
第一章 绪论 | 第10-16页 |
1.1 选题的背景和意义 | 第10-11页 |
1.2 课题的相关研究现状 | 第11-14页 |
1.3 本文研究内容及创新点 | 第14-15页 |
1.4 本文的结构安排 | 第15-16页 |
第二章 远程视觉感知与呈现方法的理论基础 | 第16-22页 |
2.1 立体视觉形成机制 | 第16-19页 |
2.1.1 生理因素 | 第16-19页 |
2.1.2 客观与主观因素 | 第19页 |
2.2 立体显示技术 | 第19-21页 |
2.3 立体视觉中的增强现实技术 | 第21页 |
2.4 小结 | 第21-22页 |
第三章 远程视觉感知实验系统的设计与搭建 | 第22-36页 |
3.1 系统的总体框架 | 第22-26页 |
3.1.1 总体设计目标 | 第22-23页 |
3.1.2 系统需求分析 | 第23-26页 |
3.2 系统的硬件实验平台搭建 | 第26-35页 |
3.2.1 双目摄像机的选型 | 第26-27页 |
3.2.2 信号传输模块的选型 | 第27页 |
3.2.3 高速云台的选型 | 第27-28页 |
3.2.4 头盔显示器的选型 | 第28-29页 |
3.2.5 立体视频获取与传输的实现 | 第29-31页 |
3.2.6 观察方向检测与跟随的实现 | 第31-35页 |
3.3 小结 | 第35-36页 |
第四章 立体视频的处理与呈现 | 第36-56页 |
4.1 立体视频的校正与呈现流程 | 第36页 |
4.2 立体视频的几何校正 | 第36-44页 |
4.2.1 摄像机成像模型 | 第36-39页 |
4.2.2 摄像机标定 | 第39-40页 |
4.2.3 立体图像几何校正 | 第40-44页 |
4.3 立体视频的亮度校正 | 第44-49页 |
4.3.1 HSV颜色空间 | 第45-46页 |
4.3.2 直方图匹配 | 第46-49页 |
4.4 立体视频的尺度变换 | 第49-55页 |
4.4.1 双目摄像机工程模型 | 第49-51页 |
4.4.2 立体显示工程模型 | 第51-53页 |
4.4.3 透镜成像工程模型 | 第53-55页 |
4.5 小结 | 第55-56页 |
第五章 立体视觉中增强现实的实现 | 第56-68页 |
5.1 增强现实的跟踪方式与注册原理 | 第56-57页 |
5.2 立体视觉中增强现实的快速跟踪与注册 | 第57-66页 |
5.2.1 标志物的快速检测 | 第58-59页 |
5.2.2 摄像机姿态的计算 | 第59-62页 |
5.2.3 投影矩阵与模型视图矩阵的设置 | 第62-65页 |
5.2.4 立体注册策略 | 第65-66页 |
5.3 小结 | 第66-68页 |
第六章 系统的测试 | 第68-78页 |
6.1 系统立体视觉锐度测试 | 第68-72页 |
6.1.1 Howard-Dolman测试法 | 第68-69页 |
6.1.2 结合增强现实的Howard-Dolman测试法 | 第69-72页 |
6.2 系统绝对距离感知测试 | 第72-77页 |
6.2.1 绝对距离感知测量的方法 | 第72-73页 |
6.2.2 绝对距离感知的口头估计 | 第73-77页 |
6.3 小结 | 第77-78页 |
第七章 总结与展望 | 第78-79页 |
致谢 | 第79-80页 |
参考文献 | 第80-82页 |
攻读硕士学位期间取得的成果 | 第82页 |