摘要 | 第9-11页 |
Abstract | 第11-12页 |
第一章 绪论 | 第13-20页 |
1.1 无人机视频图像空间覆盖摘要研究的意义 | 第13-14页 |
1.2 无人机视频图像空间覆盖摘要的研究现状 | 第14-18页 |
1.2.1 空间覆盖摘要的分类 | 第14-15页 |
1.2.2 图像拼接的研究现状 | 第15-17页 |
1.2.3 无人机视频图像空间覆盖摘要的难点 | 第17-18页 |
1.3 本文的主要研究内容 | 第18-19页 |
1.4 本文的结构安排 | 第19-20页 |
第二章 CNN的基础理论与实现框架 | 第20-36页 |
2.1 CNN的简要发展历程 | 第20-21页 |
2.2 CNN模型结构 | 第21-28页 |
2.2.1 CNN模型结构的组成单元 | 第21-23页 |
2.2.2 常见CNN模型 | 第23-28页 |
2.3 CNN模型训练方法 | 第28-34页 |
2.3.1 传统网络的反向传播训练框架 | 第28-32页 |
2.3.2 CNN组成单元的BP传播算法 | 第32-33页 |
2.3.3 CNN模型正则化方法 | 第33-34页 |
2.4 CNN实现框架 | 第34-36页 |
第三章 基于CNN的无人机视频图像对比系统 | 第36-57页 |
3.1 引言 | 第36-37页 |
3.2 无人机视频图像变换模型和对比数据库构建 | 第37-43页 |
3.2.1 无人机视频图像变换模型 | 第37-39页 |
3.2.2 对比图像库构建 | 第39-43页 |
3.3 模型结构与实现 | 第43-45页 |
3.3.1 模型结构 | 第43-45页 |
3.3.2 联合学习 | 第45页 |
3.4 迁移学习 | 第45-47页 |
3.4.1 迁移学习方法构建 | 第45-46页 |
3.4.2 用于无人机视频图像对比系统的迁移学习策略 | 第46-47页 |
3.5 实验结果与分析 | 第47-56页 |
3.5.1 实验设置 | 第47页 |
3.5.2 训练得到的模型 | 第47-49页 |
3.5.3 无人机视频图像对比结果 | 第49-53页 |
3.5.4 同其他方法的比较 | 第53-56页 |
3.6 小结 | 第56-57页 |
第四章 基于CNN的无人机视频图像空间覆盖摘要 | 第57-69页 |
4.1 总体思路 | 第57-58页 |
4.2 基于CNN的图像匹配 | 第58-60页 |
4.3 建立变换模型 | 第60-61页 |
4.4 统一坐标 | 第61-62页 |
4.5 图像融合 | 第62-63页 |
4.6 基于CNN的无人机视频摘要的结果 | 第63-68页 |
4.6.1 基于CNN的无人机视频两帧图像拼接结果 | 第63-66页 |
4.6.2 与基于SIFT匹配的拼接方法的比较 | 第66-67页 |
4.6.3 基于CNN的无人机视频的局部空间摘要结果 | 第67-68页 |
4.7 小结 | 第68-69页 |
第五章 基于CNN的无人机视频图像空间摘要演示系统 | 第69-81页 |
5.1 系统总体设计 | 第69-71页 |
5.2 系统实现 | 第71-80页 |
5.2.1 开发环境的配置 | 第71-75页 |
5.2.2 系统界面的实现 | 第75-76页 |
5.2.3 从局部空间覆盖摘要到整体空间覆盖摘要的实现 | 第76-80页 |
5.3 小结 | 第80-81页 |
第六章 结论与展望 | 第81-83页 |
6.1 主要工作与结论 | 第81页 |
6.2 未来研究展望 | 第81-83页 |
致谢 | 第83-84页 |
参考文献 | 第84-88页 |
作者在学期间取得的学术成果 | 第88页 |