基于多视全景视频技术的研究
| 致谢 | 第1-7页 |
| 摘要 | 第7-8页 |
| Abstract | 第8-10页 |
| 目次 | 第10-13页 |
| 图清单 | 第13-15页 |
| 表清单 | 第15-16页 |
| 1 绪论 | 第16-21页 |
| ·课题背景及意义 | 第16-17页 |
| ·国内外研究现状 | 第17-19页 |
| ·本文的主要研究内容和研究思路 | 第19-20页 |
| ·主要内容 | 第19-20页 |
| ·研究思路 | 第20页 |
| ·本文组织结构 | 第20-21页 |
| 2 视频图像拼接的关键技术及开发平台的简介 | 第21-37页 |
| ·坐标系统 | 第21-23页 |
| ·三种坐标系的定义 | 第21-22页 |
| ·三种坐标的关系 | 第22-23页 |
| ·图像变换 | 第23-25页 |
| ·一般图像变换 | 第23-24页 |
| ·重投影模型 | 第24-25页 |
| ·图像配准 | 第25-30页 |
| ·图像配准方法 | 第25-29页 |
| ·图像插值技术 | 第29-30页 |
| ·图像融合 | 第30-33页 |
| ·加权平均法 | 第30页 |
| ·欧式距离法 | 第30-31页 |
| ·基于塔形分解的图像融合方法 | 第31-32页 |
| ·中值滤波法 | 第32页 |
| ·多分辨率融合方法 | 第32-33页 |
| ·图像融合性能的评价方法 | 第33-36页 |
| ·图像融合性能的主观评价方法 | 第33页 |
| ·图像融合性能的客观评价方法 | 第33-36页 |
| ·实验开发平台和开发工具的介绍 | 第36页 |
| ·本章小结 | 第36-37页 |
| 3 视频图像拼接算法的实现与改进 | 第37-66页 |
| ·视频与图像 | 第37页 |
| ·SIFT算法原理 | 第37-44页 |
| ·尺度空间生成及极值点查找 | 第38-39页 |
| ·关键点精确定位 | 第39-41页 |
| ·确定特征点得主方向 | 第41页 |
| ·构造关键点描述符 | 第41-42页 |
| ·实验结果与分析 | 第42-44页 |
| ·SIFT算法的优化 | 第44-51页 |
| ·算法的优化思想 | 第44-45页 |
| ·视频图像重叠区域的限定 | 第45-47页 |
| ·尺度空间建立的改进 | 第47-48页 |
| ·阈值的选择 | 第48-51页 |
| ·实验结果与分析 | 第51页 |
| ·特征匹配 | 第51-56页 |
| ·特征点粗匹配 | 第52页 |
| ·特征点精匹配 | 第52-54页 |
| ·实验结果与分析 | 第54-56页 |
| ·投影矩阵的确定 | 第56-57页 |
| ·图像融合 | 第57-61页 |
| ·渐入渐出图像融合 | 第58页 |
| ·改进后的渐入渐出算法 | 第58-59页 |
| ·实验结果与分析 | 第59-61页 |
| ·各种方法实验结果与对比 | 第61-65页 |
| ·SIFT特征提取的拼接结果 | 第61-62页 |
| ·SURF特征提取的拼接结果 | 第62-65页 |
| ·本章小结 | 第65-66页 |
| 4 多视全景视频系统的实现 | 第66-80页 |
| ·全景视频的基本框架 | 第66-67页 |
| ·硬件框架 | 第66页 |
| ·软件框架 | 第66-67页 |
| ·多路视频流的同步性问题 | 第67-70页 |
| ·多路视频时间不同步问题产生的原因 | 第68页 |
| ·多路视频流同步方案 | 第68-69页 |
| ·实验结果与分析 | 第69-70页 |
| ·基于SIFT算子的视频拼接 | 第70-79页 |
| ·算法的基本思想 | 第70-71页 |
| ·DirectShow平台搭建 | 第71-72页 |
| ·多线程的同步性实现 | 第72页 |
| ·视频图像的读取 | 第72-74页 |
| ·特征点的匹配 | 第74-75页 |
| ·视频图像的融合 | 第75页 |
| ·实验结果与分析 | 第75-79页 |
| ·本章小结 | 第79-80页 |
| 5 多视全景视频系统性能的测试与分析 | 第80-87页 |
| ·视频获取 | 第80-81页 |
| ·视频拼接质量的评价 | 第81页 |
| ·实验结果与分析 | 第81-86页 |
| ·本章小结 | 第86-87页 |
| 6 总结与展望 | 第87-89页 |
| ·工作总结 | 第87-88页 |
| ·工作展望 | 第88-89页 |
| 参考文献 | 第89-93页 |
| 作者简历 | 第93页 |