| 学位论文数据集 | 第3-5页 |
| 摘要 | 第5-7页 |
| ABSTRACT | 第7-8页 |
| 目录 | 第9-12页 |
| Contents | 第12-15页 |
| 第一章 绪论 | 第15-21页 |
| 1.1 课题背景 | 第15-16页 |
| 1.2 动态视频拼接技术研究的意义 | 第16-17页 |
| 1.3 国内外研究现状 | 第17-19页 |
| 1.3.1 图像拼接方面 | 第17-18页 |
| 1.3.2 视频拼接方面 | 第18-19页 |
| 1.4 本文主要内容及构成 | 第19-21页 |
| 第二章 多摄像头实时拼接 | 第21-35页 |
| 2.1 多摄像头拼接实验总体框架 | 第21-25页 |
| 2.1.1 多摄像头拼接原理 | 第21-22页 |
| 2.1.2 图像匹配步骤 | 第22-23页 |
| 2.1.3 图像融合步骤 | 第23页 |
| 2.1.4 直接拼接摄像头图像存在的问题 | 第23-24页 |
| 2.1.5 多摄像头拼接流程设计 | 第24-25页 |
| 2.2 多摄像头拼接解决方案 | 第25-34页 |
| 2.2.1 多摄像头拼接流程设计 | 第25-26页 |
| 2.2.2 opencv平台下利用GPU加速匹配环节 | 第26-31页 |
| 2.2.3 多摄像头拼接融合阶段实现算法 | 第31-33页 |
| 2.2.4 摄像头拼接的实时性 | 第33-34页 |
| 2.3 本章小结 | 第34-35页 |
| 第三章 多摄像头实时拼接环境下的视频摘要 | 第35-43页 |
| 3.1 视频摘要的应用背景 | 第35-36页 |
| 3.2 视频摘要实验总体设计 | 第36-37页 |
| 3.3 前景与背景的提取 | 第37-40页 |
| 3.3.1 视频摘要背景的提取 | 第37-38页 |
| 3.3.2 视频摘要运动物体的提取 | 第38-40页 |
| 3.4 运动对象重组并与背景融合 | 第40-41页 |
| 3.5 本章小结 | 第41-43页 |
| 第四章 人机均动视频流拼接全景图 | 第43-51页 |
| 4.1 时空场模型原理 | 第43页 |
| 4.2 全景图形成机制 | 第43-44页 |
| 4.3 获取对象移动的视频流拼接算法 | 第44页 |
| 4.4 摄像头移动且对象静止的视频流拼接算法 | 第44页 |
| 4.5 人机均动视频流拼接全景图 | 第44-48页 |
| 4.5.1 人机均动视频流拼接全景图原理 | 第44-45页 |
| 4.5.2 对前人视频流算法改进 | 第45-46页 |
| 4.5.3 人机均动视频流拼接全景图流程设计 | 第46-48页 |
| 4.6 人机均动视频流拼接全景图过程 | 第48-49页 |
| 4.6.1 时空场模型构建 | 第48页 |
| 4.6.2 像素级分解视频流 | 第48-49页 |
| 4.6.3 寻找最优路径 | 第49页 |
| 4.6.4 根据能量约束得到全景图 | 第49页 |
| 4.7 本章小结 | 第49-51页 |
| 第五章 实验结果 | 第51-59页 |
| 5.1 多摄像头实时拼接 | 第51-54页 |
| 5.1.1 多摄像头拼接实验条件 | 第51页 |
| 5.1.2 多种分辨率下多摄像头实时拼接结果 | 第51-53页 |
| 5.1.3 多摄像头分辨率变化及影响 | 第53-54页 |
| 5.2 多摄像头实时拼接后的视频摘要效果 | 第54-55页 |
| 5.3 人机均动视频流拼接全景图 | 第55-57页 |
| 5.4 本章小结 | 第57-59页 |
| 第六章 结论与前景 | 第59-61页 |
| 6.1 结论 | 第59页 |
| 6.2 前景 | 第59-61页 |
| 参考文献 | 第61-65页 |
| 致谢 | 第65-67页 |
| 研究成果及发表的学术论文 | 第67-69页 |
| 作者与导师简介 | 第69-71页 |
| 附件 | 第71-72页 |