摘要 | 第4-6页 |
Abstract | 第6-8页 |
1 引言 | 第12-24页 |
1.1 研究背景及意义 | 第12-13页 |
1.2 国内外研究现状及分析 | 第13-20页 |
1.2.1 无人机影像配准的研究现状 | 第13-18页 |
1.2.2 无人机视频流拼接的研究现状 | 第18-20页 |
1.3 研究内容和研究目标 | 第20-22页 |
1.3.1 研究内容 | 第20-22页 |
1.3.2 研究目标 | 第22页 |
1.4 技术路线 | 第22-23页 |
1.5 论文结构安排 | 第23-24页 |
2 无人机视频流拼接的理论基础与关键技术 | 第24-52页 |
2.1 无人机遥感影像常用坐标系 | 第24-29页 |
2.1.1 图像坐标系 | 第24-25页 |
2.1.2 像平面坐标系与像空间坐标系 | 第25页 |
2.1.3 机体坐标系 | 第25-26页 |
2.1.4 导航坐标系 | 第26-28页 |
2.1.5 地心地固坐标系 | 第28-29页 |
2.2 摄像机成像几何 | 第29-31页 |
2.3 提取关键帧 | 第31-32页 |
2.4 影像纠正 | 第32-36页 |
2.4.1 基于地面控制点的影像纠正 | 第32-33页 |
2.4.2 无控制点的影像纠正 | 第33页 |
2.4.3 影像重采样 | 第33-36页 |
2.5 影像配准 | 第36-47页 |
2.5.1 影像特征提取 | 第37-46页 |
2.5.2 求解几何变换模型 | 第46-47页 |
2.6 Levenberg-Marquardt算法 | 第47-49页 |
2.7 CUDA技术原理与应用 | 第49-51页 |
2.8 本章小结 | 第51-52页 |
3 无人机视频流的自适应关键帧提取与影像纠正 | 第52-70页 |
3.1 自适应关键帧提取 | 第52-59页 |
3.1.1 基于特征点的重叠度计算方法 | 第52-55页 |
3.1.2 自适应关键帧提取方法 | 第55-57页 |
3.1.3 关键帧提取方法实验与分析 | 第57-59页 |
3.2 基于INS的倾斜影像纠正 | 第59-69页 |
3.2.1 基于INS的纠正模型 | 第59-62页 |
3.2.2 基于CUDA技术的影像重采样 | 第62-63页 |
3.2.3 倾斜影像纠正实验与精度分析 | 第63-69页 |
3.3 本章小结 | 第69-70页 |
4 无人机视频流影像快速配准 | 第70-88页 |
4.1 亚像素级的ORB特征点 | 第70-74页 |
4.2 最佳邻域鲁棒描述子 | 第74-78页 |
4.3 基于查找表的汉明距离匹配 | 第78-80页 |
4.4 影像配准实验分析与效果评价 | 第80-86页 |
4.5 本章小结 | 第86-88页 |
5 无人机视频流拼接的误差分析与优化 | 第88-102页 |
5.1 无人机视频流拼接误差来源 | 第88-89页 |
5.2 无人机视频流拼接过程中的误差累积分析 | 第89-90页 |
5.3 基于稀疏光束法平差的局部最优拼接方法 | 第90-94页 |
5.3.1 稀疏光束法平差 | 第90-93页 |
5.3.2 局部最优的拼接方法 | 第93-94页 |
5.4 无人机视频流快速拼接实验 | 第94-96页 |
5.5 无人机视频流影像纠正与拼接实验 | 第96-100页 |
5.5.1 拼接误差分析 | 第99-100页 |
5.6 本章小结 | 第100-102页 |
6 结论与展望 | 第102-106页 |
6.1 主要研究成果 | 第102-103页 |
6.2 研究创新点 | 第103页 |
6.3 研究展望 | 第103-106页 |
参考文献 | 第106-114页 |
致谢 | 第114-116页 |
作者简介 | 第116页 |