基于卷积神经网络的行人检测和识别研究
摘要 | 第4-5页 |
ABSTRACT | 第5页 |
第一章 绪论 | 第8-16页 |
1.1 研究背景 | 第8-9页 |
1.1.1 无人驾驶汽车 | 第8页 |
1.1.2 智能视觉监控 | 第8-9页 |
1.2 基于统计学习的行人检测研究现状 | 第9-12页 |
1.2.1 特征提取方法研究现状 | 第10-11页 |
1.2.2 特征分类算法研究现状 | 第11-12页 |
1.3 基于深度学习的行人检测研究现状 | 第12-13页 |
1.4 本文的研究内容和结构安排 | 第13-16页 |
第二章 行人检测方法 | 第16-28页 |
2.1 行人检测方法概述 | 第16-17页 |
2.2 多尺度形变部件模型 | 第17-19页 |
2.2.1 DPM特征提取 | 第17-18页 |
2.2.2 DPM检测流程 | 第18-19页 |
2.3 行人检测数据集 | 第19-23页 |
2.4 方法评价要素 | 第23-26页 |
2.4.1 准确率和召回率 | 第23-24页 |
2.4.2 每个窗口误检率 | 第24页 |
2.4.3 每张图片误检率 | 第24-26页 |
2.5 本章小结 | 第26-28页 |
第三章 卷积神经网络 | 第28-38页 |
3.1 深度学习简介 | 第28-31页 |
3.1.1 前向传播和损失函数 | 第29-30页 |
3.1.2 反向传播和参数更新 | 第30-31页 |
3.2 卷积神经网络 | 第31-32页 |
3.3 常见深度神经网络模型 | 第32-36页 |
3.3.1 VGGNet网络 | 第32-34页 |
3.3.2 深度残差网络 | 第34-36页 |
3.4 深度学习框架 | 第36-37页 |
3.4.1 TensorFlow框架 | 第36页 |
3.4.2 Torch框架 | 第36-37页 |
3.4.3 Caffe框架 | 第37页 |
3.4.4 Darknet框架 | 第37页 |
3.5 本章小结 | 第37-38页 |
第四章 基于卷积神经网络的行人检测方法 | 第38-50页 |
4.1 YOLO目标检测方法 | 第38-40页 |
4.1.1 带Anchor Boxes的卷积层 | 第39页 |
4.1.2 直接位置预测 | 第39-40页 |
4.2 基于深度残差网络的YOLO模型实现 | 第40-42页 |
4.3 基于卷积神经网络的行人检测方法 | 第42-44页 |
4.3.1 基于图像的行人特征分析 | 第42-43页 |
4.3.2 基于维度聚类的预测框选取 | 第43页 |
4.3.3 Res-P-YOLO网络设计 | 第43-44页 |
4.4 实验与结果分析 | 第44-48页 |
4.4.1 实验环境 | 第44-45页 |
4.4.2 混合数据集训练验证 | 第45页 |
4.4.3 矩形输入性能对比 | 第45-46页 |
4.4.4 实验结果与对比 | 第46-48页 |
4.5 本章小结 | 第48-50页 |
第五章 总结与展望 | 第50-52页 |
5.1 总结 | 第50页 |
5.2 展望 | 第50-52页 |
参考文献 | 第52-58页 |
发表论文和参加科研情况说明 | 第58-60页 |
致谢 | 第60页 |