摘要 | 第5-7页 |
ABSTRACT | 第7-8页 |
第1章 绪论 | 第16-30页 |
1.1 研究背景和意义 | 第16-18页 |
1.2 国内外研究现状 | 第18-25页 |
1.2.1 全景图像拼接与生成 | 第18-22页 |
1.2.2 全景立体图像生成 | 第22-23页 |
1.2.3 相关软硬件产品 | 第23-25页 |
1.3 研究现状分析 | 第25-26页 |
1.4 研究目标、研究内容及技术路线 | 第26-28页 |
1.4.1 研究目标 | 第26页 |
1.4.2 研究内容 | 第26-27页 |
1.4.3 技术路线 | 第27-28页 |
1.5 论文结构与内容安排 | 第28-30页 |
第2章 视频序列影像罗盘特征点检测 | 第30-59页 |
2.1 影像特征点检测一般方法 | 第30-34页 |
2.2 罗盘特征点检测 | 第34-40页 |
2.2.1 FAST特征点检测 | 第34-36页 |
2.2.2 罗盘角点检测 | 第36-38页 |
2.2.3 阈值设定 | 第38页 |
2.2.4 斜边缘伪角点剔除 | 第38-39页 |
2.2.5 非极大值抑制 | 第39-40页 |
2.3 特征点过滤 | 第40-43页 |
2.3.1 图像的局部信息熵定义 | 第41-42页 |
2.3.2 算法详细过程 | 第42-43页 |
2.4 基于图像分块的特征点并行优化策略 | 第43-44页 |
2.5 实验结果与分析 | 第44-57页 |
2.5.1 算法整体流程 | 第44-45页 |
2.5.2 ATCD算法验证 | 第45-54页 |
2.5.3 局部信息熵特征点过滤算法测试 | 第54-55页 |
2.5.4 图像分块下特征点并行优化测试 | 第55-57页 |
2.6 本章小结 | 第57-59页 |
第3章 视频序列影像变圆域罗盘特征匹配 | 第59-85页 |
3.1 影像特征匹配的一般方法 | 第59-64页 |
3.2 变圆域罗盘特征匹配 | 第64-70页 |
3.2.1 尺度空间构建 | 第64-65页 |
3.2.2 变圆域描述符 | 第65-67页 |
3.2.3 汉明距离(Hamming Distance)相似性度量 | 第67页 |
3.2.4 格网分块下的局部匹配搜索策略 | 第67-70页 |
3.3 格网分块下的匹配并行优化策略 | 第70-71页 |
3.4 实验结果与分析 | 第71-83页 |
3.4.1 算法整体流程 | 第71-73页 |
3.4.2 VCDCM算法验证 | 第73-77页 |
3.4.3 格网分块下的局部匹配搜索策略 | 第77-82页 |
3.4.4 格网分块下的并行匹配优化策略 | 第82-83页 |
3.5 本章小结 | 第83-85页 |
第4章 基于视频影像的全景图像拼接方法 | 第85-99页 |
4.1 全景图像拼接的一般过程 | 第85-93页 |
4.1.1 平面单应性变换 | 第86-89页 |
4.1.2 摄像机焦距估计 | 第89-90页 |
4.1.3 柱面投影 | 第90-91页 |
4.1.4 图像融合 | 第91-93页 |
4.2 CPU时间分析 | 第93-94页 |
4.3 全局旋转矩阵变换的全景图像修正 | 第94-95页 |
4.4 实验结果与分析 | 第95-98页 |
4.4.1 整体性能分析对比 | 第95-98页 |
4.4.2 全局旋转矩阵变换的全景图像修正 | 第98页 |
4.5 本章小结 | 第98-99页 |
第5章 视频序列影像全景立体图像生成方法 | 第99-130页 |
5.1 立体视觉原理 | 第99-104页 |
5.1.1 人眼立体视觉 | 第99-101页 |
5.1.2 人造立体视觉 | 第101-102页 |
5.1.3 全景立体视觉原理 | 第102-104页 |
5.2 自适应条带的全景立体图像生成 | 第104-114页 |
5.2.1 中心圆投影 | 第105-106页 |
5.2.2 自适应条带提取 | 第106-109页 |
5.2.3 左右全景立体图像生成 | 第109-112页 |
5.2.4 全景立体图像模型合成 | 第112-114页 |
5.3 实验结果与分析 | 第114页 |
5.4 本章小结 | 第114-130页 |
第6章 总结与展望 | 第130-133页 |
6.1 主要研究结论 | 第130-131页 |
6.2 主要创新点 | 第131-132页 |
6.3 研究展望 | 第132-133页 |
参考文献 | 第133-143页 |
致谢 | 第143-145页 |
在读期间发表的学术论文与科研成果 | 第145页 |