全空间视频融合技术的研究与实现
摘要 | 第5-6页 |
Abstract | 第6页 |
1 绪论 | 第10-13页 |
1.1 引言 | 第10页 |
1.2 国内外研究现状 | 第10页 |
1.3 论文的研究目的、研究意义及研究内容 | 第10-12页 |
1.4 论文主要内容及章节安排 | 第12-13页 |
2 全空间视频融合技术的理论基础 | 第13-19页 |
2.1 直线提取算法 | 第13页 |
2.2 摄像机标定算法 | 第13页 |
2.3 投影纹理映射算法 | 第13-19页 |
3 基于场景结构特征的直线提取及摄像机标定 | 第19-41页 |
3.1 基于场景结构特征的图像直线提取 | 第20-30页 |
3.1.1 视频图像的场景结构特征 | 第20-22页 |
3.1.2 特征筛选标准 | 第22-26页 |
3.1.3 特征信息计算 | 第26-30页 |
3.2 摄像机标定 | 第30-37页 |
3.3 实验结果与分析 | 第37-40页 |
3.4 本章小结 | 第40-41页 |
4 视频投影纹理映射 | 第41-50页 |
4.1 投影纹理映射算法 | 第41-47页 |
4.2 实验结果与分析 | 第47-48页 |
4.3 本章小结 | 第48-50页 |
5 全空间视频融合原型系统的设计与实现 | 第50-55页 |
5.1 原型系统的设计目标 | 第50-51页 |
5.2 原型系统的逻辑架构设计 | 第51-52页 |
5.2.1 原型系统的功能模块 | 第51-52页 |
5.2.2 原型系统的模块流程图 | 第52页 |
5.3 原型系统的物理架构设计 | 第52页 |
5.4 原型系统的开发环境与工具 | 第52-53页 |
5.5 原型系统的实现方法和效果 | 第53-54页 |
5.6 本章小结 | 第54-55页 |
6 总结与展望 | 第55-57页 |
6.1 研究总结 | 第55-56页 |
6.2 下一步研究建议 | 第56-57页 |
参考文献 | 第57-59页 |
攻读学位期间参与的科研项目 | 第59-60页 |
致谢 | 第60-61页 |