基于计算机视觉的安全辅助驾驶系统
摘要 | 第5-6页 |
ABSTRACT | 第6-7页 |
符号对照表 | 第11-12页 |
缩略语对照表 | 第12-16页 |
第一章 绪论 | 第16-24页 |
1.1 研究背景和意义 | 第16-17页 |
1.2 基于计算机视觉的安全辅助驾驶系统关键技术 | 第17-18页 |
1.2.1 目标识别技术 | 第17-18页 |
1.2.2 目标测距技术 | 第18页 |
1.3 安全辅助驾驶技术国内外研究现状 | 第18-21页 |
1.3.1 安全辅助驾驶技术国外研究现状 | 第19-21页 |
1.3.2 安全辅助驾驶技术国内研究现状 | 第21页 |
1.4 论文主要工作和组织结构 | 第21-24页 |
1.4.1 论文主要工作内容 | 第21-22页 |
1.4.2 论文组织结构 | 第22-24页 |
第二章 相关理论基础 | 第24-32页 |
2.1 卷积和池化 | 第24-27页 |
2.1.1 卷积神经网络 | 第24-25页 |
2.1.2 图像卷积 | 第25-26页 |
2.1.3 图像池化 | 第26-27页 |
2.2 摄像机标定方法 | 第27-29页 |
2.3 舵机控制原理 | 第29-30页 |
2.4 超声波测距原理 | 第30-31页 |
2.5 本章小结 | 第31-32页 |
第三章 基于深度学习的前方车辆和行人的识别 | 第32-48页 |
3.1 相关数据库 | 第32-34页 |
3.2 YOLO算法识别车辆和行人 | 第34-36页 |
3.3 级联卷积神经网络识别车牌和车标 | 第36-40页 |
3.3.1 级联卷积神经网络识别车牌 | 第36-38页 |
3.3.2 级联卷积神经网络识别车标 | 第38-40页 |
3.4 实际结果及比较 | 第40-46页 |
3.4.1 软硬件环境准备 | 第40-41页 |
3.4.2 实验结果评价标准 | 第41页 |
3.4.3 行人和车辆识别网络结果分析 | 第41-44页 |
3.4.4 车牌识别网络结果分析 | 第44-45页 |
3.4.5 车标识别网络结果分析 | 第45-46页 |
3.5 本章小结 | 第46-48页 |
第四章 基于舵机控制的两种测距系统 | 第48-66页 |
4.1 摄像机成像原理 | 第48-51页 |
4.2 四种坐标系和转换关系 | 第51-54页 |
4.2.1 图像坐标系和像平面坐标系的转换 | 第51-52页 |
4.2.2 像平面坐标系和摄像机坐标系的转换 | 第52-53页 |
4.2.3 摄像机坐标系和世界坐标系的转换 | 第53页 |
4.2.4 图像坐标系和世界坐标系的转换 | 第53-54页 |
4.3 基于舵机控制的超声波测距 | 第54-59页 |
4.3.1 二自由度云台 | 第54-55页 |
4.3.2 基于目标位置的云台姿态解算 | 第55-57页 |
4.3.3 超声波测距系统控制 | 第57-59页 |
4.4 基于舵机控制的单目测距 | 第59-62页 |
4.4.1 单目视觉测距 | 第59-61页 |
4.4.2 单目视觉测距系统控制 | 第61-62页 |
4.5 实验结果及比较 | 第62-65页 |
4.6 本章小结 | 第65-66页 |
第五章 安全辅助驾驶系统的系统实现 | 第66-72页 |
5.1 用户界面设计 | 第66-68页 |
5.1.1 面板设计工具 | 第66-67页 |
5.1.2 属性编辑器 | 第67-68页 |
5.2 系统的总体设计 | 第68-70页 |
5.2.1 安全辅助驾驶系统 | 第68-69页 |
5.2.2 系统总体框架设计 | 第69-70页 |
5.3 系统各模块的功能 | 第70-71页 |
5.4 本章小结 | 第71-72页 |
第六章 总结与展望 | 第72-74页 |
6.1 研究总结 | 第72页 |
6.2 研究展望 | 第72-74页 |
参考文献 | 第74-78页 |
致谢 | 第78-80页 |
作者简介 | 第80-81页 |