基于FPGA立体视觉的无人车障碍检测算法研究与实现
摘要 | 第3-4页 |
Abstract | 第4-5页 |
第一章 绪论 | 第8-19页 |
1.1 研究背景与意义 | 第8-9页 |
1.2 课题研究目的 | 第9-10页 |
1.3 国内外研究现状 | 第10-16页 |
1.3.1 无人驾驶车辆研究现状 | 第10-14页 |
1.3.2 障碍检测研究现状 | 第14-16页 |
1.4 论文的创新工作及结构安排 | 第16-18页 |
1.4.1 论文的创新工作 | 第16-17页 |
1.4.2 论文安排 | 第17-18页 |
1.5 本章小结 | 第18-19页 |
第二章 立体视觉研究 | 第19-36页 |
2.1 立体视差理论 | 第19-21页 |
2.2 立体匹配理论 | 第21-26页 |
2.2.1 图像对校正 | 第21-22页 |
2.2.2 初始匹配代价计算 | 第22-24页 |
2.2.3 匹配代价聚合 | 第24页 |
2.2.4 视差选取 | 第24-25页 |
2.2.5 视差效验 | 第25-26页 |
2.3 立体匹配常用算法分析 | 第26-31页 |
2.3.1 Box-filtering匹配算法 | 第26-27页 |
2.3.2 Cross匹配算法 | 第27-29页 |
2.3.3 Image guide匹配算法 | 第29-30页 |
2.3.4 SGM匹配算法 | 第30-31页 |
2.4 FPGA实时应用算法选取 | 第31-35页 |
2.4.1 道路环境算法处理效果比较 | 第31-33页 |
2.4.2 道路环境算法实时性比较 | 第33-34页 |
2.4.3 道路环境算法空间需求比较 | 第34页 |
2.4.4 道路环境FPGA应用算法选取 | 第34-35页 |
2.5 本章小结 | 第35-36页 |
第三章 FPGA立体视觉系统 | 第36-61页 |
3.1 FPGA算法平台 | 第36-41页 |
3.1.1 FPGA硬件概述 | 第36-38页 |
3.1.2 FPGA图像处理流程 | 第38-39页 |
3.1.3 FPGA算法开发 | 第39-41页 |
3.2 FPGA匹配算法 | 第41-54页 |
3.2.1 图像预处理 | 第42-44页 |
3.2.2 初始代价计算 | 第44-47页 |
3.2.3 代价聚合算法 | 第47-50页 |
3.2.4 初始视差获取 | 第50-52页 |
3.2.5 立体匹配系统 | 第52-54页 |
3.3 匹配算法性能分析 | 第54-60页 |
3.3.1 匹配精度 | 第54-58页 |
3.3.2 匹配速率 | 第58-60页 |
3.4 本章小结 | 第60-61页 |
第四章 障碍检测算法研究 | 第61-74页 |
4.1 V-disparity原理 | 第61-64页 |
4.1.1 v-disparity模型 | 第61-63页 |
4.1.2 v-disparity构建 | 第63-64页 |
4.1.3 v-disparity面特征 | 第64页 |
4.2 v-disparity可行驶域检测 | 第64-71页 |
4.2.1 Hough变换直线检测 | 第65-68页 |
4.2.2 道路面提取 | 第68-70页 |
4.2.3 道路面提取精度 | 第70-71页 |
4.3 ROI区域障碍检测 | 第71-73页 |
4.4 本章小结 | 第73-74页 |
第五章 总结与展望 | 第74-76页 |
5.1 工作总结 | 第74-75页 |
5.2 研究展望 | 第75-76页 |
参考文献 | 第76-80页 |
致谢 | 第80-81页 |
个人简历、在学期间的研究成果及发表学术论文 | 第81页 |