摘要 | 第4-5页 |
Abstract | 第5-6页 |
第一章 绪论 | 第11-19页 |
1.1 研究背景与意义 | 第11-12页 |
1.2 国内外研究现状 | 第12-15页 |
1.3 本文主要研究工作及创新点 | 第15-16页 |
1.4 组织结构 | 第16-19页 |
第二章 道路检测相关技术 | 第19-37页 |
2.1 公共数据集 | 第19-23页 |
2.2 道路检测特征 | 第23-28页 |
2.2.1. 手工设计的特征 | 第23-25页 |
2.2.2. 基于学习的特征 | 第25-28页 |
2.3 道路检测分类器 | 第28-33页 |
2.3.1 SVM | 第28-30页 |
2.3.2 AdaBoost | 第30-31页 |
2.3.3 ANN | 第31-32页 |
2.3.4 Softmax | 第32-33页 |
2.4 道路检测性能评价指标 | 第33-34页 |
2.5 本章小结 | 第34-37页 |
第三章 Feature++:基于多特征融合的双目道路检测方法 | 第37-49页 |
3.1 引入动机 | 第37-38页 |
3.2 算法框架 | 第38-43页 |
3.2.1 立体匹配与图像分割 | 第38-39页 |
3.2.2 超像素特征提取 | 第39-41页 |
3.2.3 分类器 | 第41页 |
3.2.4 条件随机场 | 第41-43页 |
3.3 实验 | 第43-47页 |
3.3.1 特征评估 | 第43-45页 |
3.3.2 分类器评估 | 第45-46页 |
3.3.3 测试集结果 | 第46-47页 |
3.4 本章小结 | 第47-49页 |
第四章 FusionNet:基于DCNN的RGB与视差信息融合方法 | 第49-65页 |
4.1 引入动机 | 第49-50页 |
4.2 DeepLab方法 | 第50-53页 |
4.2.1 DeepLab算法原理介绍 | 第50-52页 |
4.2.2 网络结构 | 第52-53页 |
4.3 融合彩色图像与视差信息的策略 | 第53-56页 |
4.3.1 基于输入数据融合的方法 | 第54页 |
4.3.2 基于卷积网络参数共享的方法 | 第54-55页 |
4.3.3 基于特征图加和的方法 | 第55-56页 |
4.4 实验 | 第56-63页 |
4.4.1 DeepLab方法评估 | 第58页 |
4.4.2 融合方法评估 | 第58-61页 |
4.4.3 测试集结果 | 第61-63页 |
4.5 本章小结 | 第63-65页 |
第五章 总结和展望 | 第65-67页 |
5.1 本文总结 | 第65-66页 |
5.2 研究展望 | 第66-67页 |
参考文献 | 第67-73页 |
硕士期间发表的论文 | 第73-75页 |
致谢 | 第75页 |