基于双目视觉的红绿灯路口安全距离预警研究
摘要 | 第5-7页 |
ABSTRACT | 第7-8页 |
第1章 绪论 | 第11-15页 |
1.1 本课题研究背景及意义 | 第11-12页 |
1.2 国内外研究现状和发展趋势 | 第12-13页 |
1.3 本章课题的主要内容 | 第13-14页 |
1.4 本章小结 | 第14-15页 |
第2章 双目立体视觉测距系统 | 第15-25页 |
2.1 双目立体视觉系统 | 第15-16页 |
2.1.1 概述 | 第15-16页 |
2.1.2 双目立体视觉原理 | 第16页 |
2.2 双目视觉测距原理 | 第16-19页 |
2.2.1 平行双目立体视觉测距原理 | 第16-17页 |
2.2.2 一般双目立体视觉测距数学模型 | 第17-19页 |
2.3 双目立体视觉测距实验系统 | 第19-20页 |
2.4 BP神经网络 | 第20-24页 |
2.4.1 人工神经网络简介 | 第20-21页 |
2.4.2 BP神经网络概述 | 第21-23页 |
2.4.3 融合算法 | 第23-24页 |
2.5 本章小结 | 第24-25页 |
第3章 摄像机标定与立体匹配 | 第25-36页 |
3.1 摄像机标定 | 第25-34页 |
3.1.1 摄像机的参考坐标系 | 第25-27页 |
3.1.2 摄像机模型 | 第27-29页 |
3.1.3 摄像机标定方法 | 第29-31页 |
3.1.4 摄像机标定实验 | 第31-34页 |
3.2 立体匹配 | 第34-35页 |
3.2.1 基于特征的匹配算法 | 第34-35页 |
3.2.2 基于区域的匹配算法 | 第35页 |
3.2.3 基于相位的匹配算法 | 第35页 |
3.3 本章小结 | 第35-36页 |
第4章 红绿灯信息检测与识别 | 第36-48页 |
4.1 红绿灯信息介绍 | 第36-37页 |
4.2 红绿灯信号色彩空间分析 | 第37-38页 |
4.2.1 色彩空间概述 | 第37页 |
4.2.2 RGB颜色空间模型 | 第37-38页 |
4.3 红绿灯信息检测与识别 | 第38-47页 |
4.3.1 红绿灯的颜色检测与识别 | 第38-43页 |
4.3.2 红绿灯的倒计时秒数检测与识别 | 第43-47页 |
4.4 本章小结 | 第47-48页 |
第5章 红绿灯路口安全距离预警系统实现 | 第48-64页 |
5.1 系统软件仿真实现 | 第48-56页 |
5.1.1 实验系统开发环境 | 第49页 |
5.1.2 仿真实验 | 第49-56页 |
5.2 系统硬件实现 | 第56-61页 |
5.2.1 系统硬件结构 | 第57-58页 |
5.2.2 系统硬件实验 | 第58-61页 |
5.3 实验结果分析 | 第61-63页 |
5.4 本章小结 | 第63-64页 |
第6章 结论与展望 | 第64-66页 |
6.1 结论 | 第64-65页 |
6.2 展望 | 第65-66页 |
参考文献 | 第66-69页 |
攻读学位期间发表的学术论文目录 | 第69-70页 |
致谢 | 第70-71页 |