| 摘要 | 第4-6页 |
| Abstract | 第6-8页 |
| 1 引言 | 第12-24页 |
| 1.1 研究背景及意义 | 第12-13页 |
| 1.2 国内外研究现状及分析 | 第13-20页 |
| 1.2.1 无人机影像配准的研究现状 | 第13-18页 |
| 1.2.2 无人机视频流拼接的研究现状 | 第18-20页 |
| 1.3 研究内容和研究目标 | 第20-22页 |
| 1.3.1 研究内容 | 第20-22页 |
| 1.3.2 研究目标 | 第22页 |
| 1.4 技术路线 | 第22-23页 |
| 1.5 论文结构安排 | 第23-24页 |
| 2 无人机视频流拼接的理论基础与关键技术 | 第24-52页 |
| 2.1 无人机遥感影像常用坐标系 | 第24-29页 |
| 2.1.1 图像坐标系 | 第24-25页 |
| 2.1.2 像平面坐标系与像空间坐标系 | 第25页 |
| 2.1.3 机体坐标系 | 第25-26页 |
| 2.1.4 导航坐标系 | 第26-28页 |
| 2.1.5 地心地固坐标系 | 第28-29页 |
| 2.2 摄像机成像几何 | 第29-31页 |
| 2.3 提取关键帧 | 第31-32页 |
| 2.4 影像纠正 | 第32-36页 |
| 2.4.1 基于地面控制点的影像纠正 | 第32-33页 |
| 2.4.2 无控制点的影像纠正 | 第33页 |
| 2.4.3 影像重采样 | 第33-36页 |
| 2.5 影像配准 | 第36-47页 |
| 2.5.1 影像特征提取 | 第37-46页 |
| 2.5.2 求解几何变换模型 | 第46-47页 |
| 2.6 Levenberg-Marquardt算法 | 第47-49页 |
| 2.7 CUDA技术原理与应用 | 第49-51页 |
| 2.8 本章小结 | 第51-52页 |
| 3 无人机视频流的自适应关键帧提取与影像纠正 | 第52-70页 |
| 3.1 自适应关键帧提取 | 第52-59页 |
| 3.1.1 基于特征点的重叠度计算方法 | 第52-55页 |
| 3.1.2 自适应关键帧提取方法 | 第55-57页 |
| 3.1.3 关键帧提取方法实验与分析 | 第57-59页 |
| 3.2 基于INS的倾斜影像纠正 | 第59-69页 |
| 3.2.1 基于INS的纠正模型 | 第59-62页 |
| 3.2.2 基于CUDA技术的影像重采样 | 第62-63页 |
| 3.2.3 倾斜影像纠正实验与精度分析 | 第63-69页 |
| 3.3 本章小结 | 第69-70页 |
| 4 无人机视频流影像快速配准 | 第70-88页 |
| 4.1 亚像素级的ORB特征点 | 第70-74页 |
| 4.2 最佳邻域鲁棒描述子 | 第74-78页 |
| 4.3 基于查找表的汉明距离匹配 | 第78-80页 |
| 4.4 影像配准实验分析与效果评价 | 第80-86页 |
| 4.5 本章小结 | 第86-88页 |
| 5 无人机视频流拼接的误差分析与优化 | 第88-102页 |
| 5.1 无人机视频流拼接误差来源 | 第88-89页 |
| 5.2 无人机视频流拼接过程中的误差累积分析 | 第89-90页 |
| 5.3 基于稀疏光束法平差的局部最优拼接方法 | 第90-94页 |
| 5.3.1 稀疏光束法平差 | 第90-93页 |
| 5.3.2 局部最优的拼接方法 | 第93-94页 |
| 5.4 无人机视频流快速拼接实验 | 第94-96页 |
| 5.5 无人机视频流影像纠正与拼接实验 | 第96-100页 |
| 5.5.1 拼接误差分析 | 第99-100页 |
| 5.6 本章小结 | 第100-102页 |
| 6 结论与展望 | 第102-106页 |
| 6.1 主要研究成果 | 第102-103页 |
| 6.2 研究创新点 | 第103页 |
| 6.3 研究展望 | 第103-106页 |
| 参考文献 | 第106-114页 |
| 致谢 | 第114-116页 |
| 作者简介 | 第116页 |