摘要 | 第5-6页 |
Abstract | 第6-7页 |
第1章 绪论 | 第10-19页 |
1.1 研究背景及意义 | 第10-12页 |
1.2 国内外行人检测技术研究现状 | 第12-19页 |
1.2.1 传感器技术研究 | 第12-14页 |
1.2.2 目标检测分类 | 第14-19页 |
第2章 基于Fast R-CNN的目标行人检测框架 | 第19-28页 |
2.1 R-CNN | 第19-21页 |
2.1.1 R-CNN模型整体框架 | 第20页 |
2.1.2 R-CNN的基本原理 | 第20-21页 |
2.2 Fast R-CNN | 第21-24页 |
2.2.1 Fast R-CNN基本原理 | 第21-23页 |
2.2.2 Fast R-CNN优点 | 第23-24页 |
2.3 Fast R-CNN网络结构设计 | 第24-27页 |
2.3.1 卷积核 | 第25-26页 |
2.3.2 网络层数 | 第26-27页 |
2.3.3 特征维数 | 第27页 |
2.4 本章小结 | 第27-28页 |
第3章 数据集的制作与模型训练 | 第28-40页 |
3.1 数据集制作 | 第28-36页 |
3.1.1 图像预处理 | 第30-34页 |
3.1.2 目标检测性能评价方法 | 第34-36页 |
3.2 模型训练 | 第36-39页 |
3.2.1 caffemodel概述 | 第37页 |
3.2.2 设置超参数 | 第37-39页 |
3.3 本章小结 | 第39-40页 |
第4章 毫米波雷达及视觉融合模型搭建 | 第40-57页 |
4.1 基于毫米波雷达信息的感兴趣区域确定 | 第40-45页 |
4.1.1 毫米波雷达测距性能 | 第40-44页 |
4.1.2 感兴趣区域 | 第44-45页 |
4.2 空间上的融合 | 第45-53页 |
4.2.1 毫米波雷达坐标系与三维世界坐标系转换 | 第46-47页 |
4.2.2 三维世界坐标系与摄像机坐标系转换 | 第47-51页 |
4.2.3 摄像机畸变原理 | 第51-53页 |
4.3 空间融合参数的求取 | 第53-54页 |
4.3.1 摄像机内外参数的求取 | 第53页 |
4.3.2 摄像机畸变参数的求取 | 第53-54页 |
4.4 时间上的融合 | 第54-55页 |
4.5 本章小结 | 第55-57页 |
第5章 融合模型验证及行人检测实验 | 第57-73页 |
5.1 实验平台 | 第57页 |
5.2 算法实验验证 | 第57-72页 |
5.2.1 毫米波雷达与摄像机标定实验 | 第57-63页 |
5.2.2 数据融合实验 | 第63-70页 |
5.2.3 融合优势数据对比及分析 | 第70-72页 |
5.3 本章小结 | 第72-73页 |
结论 | 第73-75页 |
参考文献 | 第75-80页 |
攻读硕士学位期间承担的科研任务与主要成果 | 第80-81页 |
致谢 | 第81页 |