中文摘要 | 第4-5页 |
英文摘要 | 第5页 |
1 绪论 | 第9-14页 |
1.1 研究背景和意义 | 第9-10页 |
1.2 全景视频技术国内外研究现状 | 第10-11页 |
1.2.1 全景图像拼接技术研究现状 | 第10-11页 |
1.2.2 全景视频编码技术研究现状 | 第11页 |
1.3 论文主要内容和创新点 | 第11-13页 |
1.4 文章结构安排 | 第13-14页 |
2 全景视频生成及编解码流程 | 第14-24页 |
2.1 全景图像生成 | 第14-20页 |
2.1.1 图像获取 | 第14-15页 |
2.1.2 图像预处理 | 第15页 |
2.1.3 图像匹配 | 第15-19页 |
2.1.4 图像拼接 | 第19-20页 |
2.1.5 图像融合 | 第20页 |
2.2 全景视频编码 | 第20-22页 |
2.2.1 帧内预测 | 第21页 |
2.2.2 帧间预测 | 第21页 |
2.2.3 变换和量化 | 第21-22页 |
2.2.4 熵编码 | 第22页 |
2.3 基于H.264全景视频解码 | 第22-23页 |
2.4 本章小结 | 第23-24页 |
3 基于神经网络的全景图像快速生成 | 第24-44页 |
3.1 图像精准校正 | 第24-29页 |
3.1.1 摄像机标定法原理 | 第25-27页 |
3.1.2 多参数摄相机标定 | 第27-29页 |
3.2 基于改进SIFT算法的特征点快速提取及匹配 | 第29-32页 |
3.2.1 基于32维描述子特征点提取 | 第29-30页 |
3.2.2 基于32维描述子特征点匹配 | 第30-32页 |
3.3 基于矩阵映射表的全景图像快速生成 | 第32-35页 |
3.3.1 构建初始映射表 | 第32-33页 |
3.3.2 全景图像快速生成 | 第33-35页 |
3.4 基于BP神经网络的拼接矩阵自适应调整 | 第35-43页 |
3.4.1 视差失真成因 | 第36页 |
3.4.2 构建判定公式及神经网络模型 | 第36-39页 |
3.4.3 矩阵映射表自适应调整 | 第39-40页 |
3.4.4 BP神经网络训练及测试 | 第40-43页 |
3.5 本章小结 | 第43-44页 |
4 基于螺旋式运动估计的全景视频编码 | 第44-53页 |
4.1 运动矢量预测 | 第44-47页 |
4.1.1 运动矢量的帧内预测 | 第44-46页 |
4.1.2 运动矢量的帧间预测 | 第46-47页 |
4.2 基于矢量预测的螺旋式运动估计 | 第47-51页 |
4.2.1 匹配误差函数及阈值计算 | 第47-48页 |
4.2.2 螺旋式搜索 | 第48-49页 |
4.2.3 小菱形模板搜索 | 第49页 |
4.2.4 实验分析及对比 | 第49-51页 |
4.3 全景视频编码 | 第51-52页 |
4.4 本章小结 | 第52-53页 |
5 系统设计与实现 | 第53-64页 |
5.1 系统总体设计 | 第53-54页 |
5.2 全景视频生成系统的设计与实现 | 第54-58页 |
5.2.1 系统功能架构 | 第54页 |
5.2.2 UI界面设计 | 第54-55页 |
5.2.3 视频采集模块 | 第55-56页 |
5.2.4 拼接模块 | 第56-57页 |
5.2.5 编码模块 | 第57-58页 |
5.3 全景视频播放系统的设计与实现 | 第58-61页 |
5.3.1 系统功能架构 | 第58-59页 |
5.3.2 UI界面设计 | 第59-60页 |
5.3.3 解码模块 | 第60-61页 |
5.3.4 播放模块 | 第61页 |
5.4 系统测试 | 第61-63页 |
5.4.1 全景视频生成系统测试 | 第61-62页 |
5.4.2 全景视频播放系统测试 | 第62-63页 |
5.5 本章小结 | 第63-64页 |
6 总结与展望 | 第64-66页 |
6.1 论文内容总结 | 第64页 |
6.2 不足及展望 | 第64-66页 |
参考文献 | 第66-70页 |
致谢 | 第70-71页 |
研究期间取得的科研成果清单 | 第71页 |