基于双目视觉的智能车道路环境识别研究
摘要 | 第4-6页 |
Abstract | 第6-7页 |
第1章 绪论 | 第11-19页 |
1.1 课题研究的背景及意义 | 第12页 |
1.2 国内外研究现状 | 第12-17页 |
1.2.1 国外研究现状 | 第13-15页 |
1.2.2 国内研究现状 | 第15-17页 |
1.3 本文主要研究内容与章节安排 | 第17-19页 |
1.3.1 本文主要研究内容 | 第17页 |
1.3.2 本文章节安排 | 第17-19页 |
第2章 图像预处理 | 第19-27页 |
2.1 灰度直方图均衡化 | 第19-20页 |
2.2 图像滤波 | 第20-21页 |
2.3 图像二值化 | 第21-22页 |
2.4 图像边缘检测 | 第22-25页 |
2.5 图像形态学处理 | 第25-26页 |
2.6 本章小结 | 第26-27页 |
第3章 车道线提取和障碍物检测跟踪 | 第27-41页 |
3.1 结构化车道线检测的算法 | 第27-29页 |
3.1.1 传统的Hough变换 | 第27-28页 |
3.1.2 改进的Hough变换 | 第28-29页 |
3.2 车辆前方障碍物检测 | 第29-33页 |
3.2.1 障碍物初步定位 | 第29-32页 |
3.2.2 障碍物精确定位 | 第32-33页 |
3.3 视频图像中障碍物检测跟踪 | 第33-40页 |
3.3.1 Kalman滤波原理 | 第33-35页 |
3.3.2 Kalman滤波预测算法流程 | 第35-37页 |
3.3.3 目标跟踪匹配 | 第37-39页 |
3.3.4 目标跟踪实验 | 第39-40页 |
3.4 本章小结 | 第40-41页 |
第4章 双目摄像机测距及其实验 | 第41-57页 |
4.1 摄像机成像模型及三大坐标系 | 第41-43页 |
4.2 双目立体视觉测距原理 | 第43-44页 |
4.3 摄像机标定 | 第44-48页 |
4.3.1 标定原理 | 第44-45页 |
4.3.2 标定方法研究 | 第45-46页 |
4.3.3 张正友标定法 | 第46-48页 |
4.4 特征点提取与匹配 | 第48-51页 |
4.4.1 特征点的提取 | 第48-49页 |
4.4.2 特征点的匹配 | 第49-51页 |
4.5 双目立体视觉系统测距实验 | 第51-55页 |
4.5.1 实验设备搭建 | 第51-52页 |
4.5.2 基线距离的选择 | 第52-53页 |
4.5.3 测距实验 | 第53-55页 |
4.6 本章小结 | 第55-57页 |
第5章 最小安全距离模型的建立 | 第57-69页 |
5.1 安全距离模型的建立 | 第57-63页 |
5.1.1 模型介绍 | 第57-58页 |
5.1.2 车辆制动过程分析 | 第58-60页 |
5.1.3 最小安全距离建模与计算 | 第60-63页 |
5.2 模型参数的确定 | 第63-64页 |
5.3 模型仿真分析 | 第64-68页 |
5.3.1 前车静止状态 | 第64页 |
5.3.2 前车匀速运动状态 | 第64-66页 |
5.3.3 前车匀减速运动状态 | 第66-68页 |
5.4 本章小结 | 第68-69页 |
第6章 总结与展望 | 第69-71页 |
6.1 全文总结 | 第69页 |
6.2 存在的不足和展望 | 第69-71页 |
参考文献 | 第71-77页 |
作者简介 | 第77-79页 |
致谢 | 第79页 |