中文摘要 | 第3-4页 |
英文摘要 | 第4-9页 |
1 绪论 | 第9-17页 |
1.1 课题研究背景和意义 | 第9-10页 |
1.2 国内外研究现状分析 | 第10-14页 |
1.2.1 基于视觉的车辆识别方法 | 第10-11页 |
1.2.2 基于雷达的车辆识别方法 | 第11-12页 |
1.2.3 基于多传感器信息融合的车辆识别方法 | 第12-14页 |
1.3 本文主要研究工作 | 第14-17页 |
2 基于视觉的车道线检测 | 第17-29页 |
2.1 相机标定 | 第17-21页 |
2.1.1 相机坐标系与世界坐标系转换 | 第17-19页 |
2.1.2 内参数标定 | 第19-20页 |
2.1.3 外参数标定 | 第20-21页 |
2.2 图像预处理算法 | 第21-24页 |
2.2.1 图像灰度化 | 第21页 |
2.2.2 图像边缘检测算法 | 第21-23页 |
2.2.3 透视变换 | 第23-24页 |
2.2.4 车道线ROI区域定位 | 第24页 |
2.3 滑动窗多项式拟合车道线 | 第24-27页 |
2.4 车道线识别算法验证 | 第27页 |
2.5 本章小结 | 第27-29页 |
3 基于支持向量机的车辆检测算法研究 | 第29-41页 |
3.1 算法原理 | 第29-31页 |
3.1.1 支持向量机(SupportVectorMachine,SVM) | 第29-31页 |
3.2 基于HOG的特征分类器设计 | 第31-33页 |
3.2.1 HOG特征描述 | 第31-33页 |
3.2.2 颜色直方图特征 | 第33页 |
3.3 基于OPENCV的车辆检测实现 | 第33-36页 |
3.3.1 训练样本预处理 | 第34页 |
3.3.2 训练过程 | 第34-35页 |
3.3.3 检测过程 | 第35-36页 |
3.4 基于HOG+SVM算法的车辆检测实验 | 第36-39页 |
3.4.1 分类器测试 | 第36-38页 |
3.4.2 算法性能分析 | 第38-39页 |
3.5 本章小结 | 第39-41页 |
4 基于深度学习算法的目标检测 | 第41-57页 |
4.1 YOLO深度学习算法 | 第41-45页 |
4.1.1 算法简介 | 第41-42页 |
4.1.2 算法原理 | 第42-45页 |
4.2 基于YOLO的目标识别算法 | 第45-49页 |
4.2.1 训练数据集预处理 | 第45-47页 |
4.2.2 算法流程 | 第47-49页 |
4.3 基于YOLO的目标识别实验 | 第49-55页 |
4.3.1 软硬件配置 | 第49-50页 |
4.3.2 实验结果 | 第50-54页 |
4.3.3 算法性能分析 | 第54-55页 |
4.4 本章小结 | 第55-57页 |
5 基于雷达与视觉信息融合的车辆检测算法研究 | 第57-73页 |
5.1 空间对准 | 第57-59页 |
5.1.1 毫米波雷达坐标系与世界坐标系转换 | 第58页 |
5.1.2 雷达与相机坐标系联合标定 | 第58-59页 |
5.2 时间对准 | 第59-60页 |
5.3 毫米波雷达目标识别滤波算法 | 第60-65页 |
5.3.1 毫米波雷达 | 第60-61页 |
5.3.2 雷达信号滤波 | 第61-64页 |
5.3.3 滤波算法验证 | 第64-65页 |
5.4 基于雷达与视觉信息融合算法研究 | 第65-71页 |
5.4.1 雷达投影ROI区域尺寸确定 | 第65-67页 |
5.4.2 车辆检测区域分割 | 第67页 |
5.4.3 车辆ROI区域目标一致性检测算法 | 第67-68页 |
5.4.4 实验结果分析 | 第68-71页 |
5.5 本章小结 | 第71-73页 |
6 总结与展望 | 第73-75页 |
6.1 总结 | 第73页 |
6.2 工作展望 | 第73-75页 |
致谢 | 第75-77页 |
参考文献 | 第77-83页 |
附录 | 第83页 |
A.作者在攻读学位期间发表的论文目录 | 第83页 |
B.作者在攻读学位期间参与的科研项目 | 第83页 |