摘要 | 第5-7页 |
ABSTRACT | 第7-9页 |
第1章 绪论 | 第12-30页 |
1.1 课题背景和意义 | 第12-14页 |
1.2 国内外研究现状 | 第14-27页 |
1.2.1 三维场景感知及定位研究现状 | 第14-19页 |
1.2.2 目标检测及识别研究现状 | 第19-21页 |
1.2.3 视觉传感器研究发展现状 | 第21-27页 |
1.3 本文的主要工作 | 第27-29页 |
1.3.1 研究目标与内容 | 第27-28页 |
1.3.2 主要创新点及成果 | 第28-29页 |
1.4 本文的组织安排 | 第29-30页 |
第2章 无人机三维视觉基础理论 | 第30-43页 |
2.1 相机成像模型及模型空间运动 | 第30-32页 |
2.1.1 无人机视觉相关的参考坐标系 | 第30-31页 |
2.1.2 空间变换 | 第31-32页 |
2.2 对极几何与多视图几何 | 第32-35页 |
2.2.1 对极几何 | 第32-33页 |
2.2.2 三角测量与双目视觉 | 第33-34页 |
2.2.3 PnP (N点透视) | 第34-35页 |
2.3 滤波方法及非线性优化方法 | 第35-39页 |
2.3.1 状态估计 | 第35-36页 |
2.3.2 滤波优化 | 第36-37页 |
2.3.3 非线性优化 | 第37-39页 |
2.4 无人机航拍及算法实验平台 | 第39-42页 |
2.5 本章小结 | 第42-43页 |
第3章 基于平行分层关键帧筛选的无人机图像三维重建 | 第43-54页 |
3.1 引言 | 第43-44页 |
3.2 基于并行分层关键帧筛选的航拍图三维重建 | 第44-45页 |
3.3 无人机航拍关键帧筛选方法 | 第45-49页 |
3.3.1 初略筛选 | 第47-48页 |
3.3.2 精细筛选 | 第48-49页 |
3.4 算法的实验对比与分析 | 第49-53页 |
3.4.1 无人机航拍图像数据集 | 第49-51页 |
3.4.2 实验结果及分析 | 第51-53页 |
3.5 本章小结 | 第53-54页 |
第4章 无人机双目事件相机实时深度估计 | 第54-74页 |
4.1 引言 | 第54-55页 |
4.2 事件相机的双目深度估计 | 第55-60页 |
4.3 基于BP的双目事件深度估计 | 第60-63页 |
4.4 基于SGM的双目事件深度估计 | 第63-65页 |
4.5 深度估计实验与结果分析 | 第65-73页 |
4.5.1 事件双目相机系统 | 第65-66页 |
4.5.2 双目事件数据集 | 第66-68页 |
4.5.3 实验结果及分析 | 第68-73页 |
4.6 本章小结 | 第73-74页 |
第5章 基于贝叶斯模型的多模态数据对象检测和定位 | 第74-89页 |
5.1 引言 | 第74-75页 |
5.3 基于贝叶斯模型的多模态数据对象检测和定位 | 第75-83页 |
5.3.1 多模态局部线索的对象评估 | 第75-80页 |
5.3.2 结合局部和整体线索的对象的检测和定位 | 第80-83页 |
5.4 目标检测和定位的实验结果及分析 | 第83-88页 |
5.5 本章小结 | 第88-89页 |
第6章 结论与展望 | 第89-91页 |
6.1 结论 | 第89页 |
6.2 展望 | 第89-91页 |
参考文献 | 第91-100页 |
致谢 | 第100-101页 |
攻读学位期间参加的科研项目和成果 | 第101-102页 |