无人机双目视觉深度感知技术研究与实现
摘要 | 第4-5页 |
ABSTRACT | 第5-6页 |
第一章 绪论 | 第10-16页 |
1.1 课题研究背景及意义 | 第10-11页 |
1.2 国内外发展现状 | 第11-14页 |
1.2.1 立体匹配算法研究现状 | 第11-13页 |
1.2.2 双目立体视觉在各平台的实现现状 | 第13-14页 |
1.3 论文的研究内容和结构安排 | 第14-16页 |
1.3.1 论文主要研究内容 | 第14页 |
1.3.2 论文的结构安排 | 第14-16页 |
第二章 双目视觉深度感知框架 | 第16-32页 |
2.1 双目立体视觉理论 | 第16-21页 |
2.1.1 摄像机成像原理与坐标系间变换关系 | 第16-19页 |
2.1.2 相机标定 | 第19-20页 |
2.1.3 双目视觉深度感知原理 | 第20-21页 |
2.2 立体匹配原理 | 第21-30页 |
2.2.1 立体校正 | 第22-23页 |
2.2.2 匹配约束 | 第23-24页 |
2.2.3 立体匹配算法评估准则与方法 | 第24-25页 |
2.2.4 匹配基元及匹配代价函数 | 第25-29页 |
2.2.5 立体匹配的难点与挑战 | 第29-30页 |
2.3 深度感知的处理流程 | 第30-31页 |
2.3.1 预处理流程 | 第30页 |
2.3.2 实时获取深度流程 | 第30-31页 |
2.4 本章小结 | 第31-32页 |
第三章 基于多尺度融合的固定窗代价聚合算法 | 第32-43页 |
3.1 引言 | 第32-33页 |
3.2 传统的固定窗代价聚合算法 | 第33-35页 |
3.2.1 盒滤波 | 第33页 |
3.2.2 积分图像 | 第33-34页 |
3.2.3 实验结果及分析 | 第34-35页 |
3.3 非局部代价聚合算法 | 第35-37页 |
3.4 多尺度代价聚合算法 | 第37-39页 |
3.5 各个聚合算法的分析对比与实验结果 | 第39-42页 |
3.6 本章小结 | 第42-43页 |
第四章 多阶段误匹配检测与视差优化方法 | 第43-58页 |
4.1 引言 | 第43-44页 |
4.2 遮挡导致的误匹配 | 第44-45页 |
4.3 误匹配视差检测 | 第45-50页 |
4.3.1 左右一致性视差检测 | 第45-46页 |
4.3.2 唯一性检测 | 第46页 |
4.3.3 连通区域检测 | 第46-47页 |
4.3.4 实验结果 | 第47-50页 |
4.4 视差优化算法 | 第50-53页 |
4.4.1 最邻近有效视差填充 | 第50-51页 |
4.4.2 加权中值滤波视差优化算法 | 第51-52页 |
4.4.3 超像素分割的视差优化算法 | 第52-53页 |
4.5 实验结果与分析对比 | 第53-57页 |
4.6 本章小结 | 第57-58页 |
第五章 嵌入式开发环境与算法并行加速优化 | 第58-71页 |
5.1 引言 | 第58页 |
5.2 嵌入式开发平台介绍 | 第58-61页 |
5.2.1 硬件开发部分 | 第58-60页 |
5.2.2 软件开发环境 | 第60-61页 |
5.3 CUDA并行处理框架 | 第61-65页 |
5.3.1 执行模型 | 第61-62页 |
5.3.2 内存模型 | 第62-64页 |
5.3.3 性能优化 | 第64-65页 |
5.4 立体匹配算法并行加速优化研究 | 第65-68页 |
5.4.1 初始代价计算优化 | 第65-66页 |
5.4.2 代价聚合优化 | 第66页 |
5.4.3 多尺度代价卷融合优化 | 第66-67页 |
5.4.4 视差选取及唯一性检测优化 | 第67-68页 |
5.5 深度恢复实验与结果分析 | 第68-70页 |
5.6 本章小结 | 第70-71页 |
第六章 结论与展望 | 第71-73页 |
6.1 本文工作总结 | 第71-72页 |
6.2 未来研究工作展望 | 第72-73页 |
致谢 | 第73-74页 |
参考文献 | 第74-78页 |