车载视频行人检测技术研究
摘要 | 第4-6页 |
abstract | 第6-7页 |
第1章 绪论 | 第10-20页 |
1.1 研究背景及意义 | 第10-11页 |
1.2 研究现状 | 第11-14页 |
1.3 车载视频检测技术研究存在的问题 | 第14页 |
1.4 技术路线及内容框架 | 第14-20页 |
第2章 基于车载的运动行人区域估计方法 | 第20-36页 |
2.1 光流聚类 | 第21-28页 |
2.1.1 光流算法研究 | 第21-24页 |
2.1.2 光流场运动差异性分析 | 第24页 |
2.1.3 光流场组成成分分析 | 第24-26页 |
2.1.4 背景估计 | 第26-28页 |
2.2 光流分割 | 第28-31页 |
2.2.1 图的构建 | 第28-29页 |
2.2.2 图论分割算法 | 第29-31页 |
2.3 运动行人区域判别 | 第31-32页 |
2.4 实验结果分析 | 第32-34页 |
2.4.1 JLU-PDS车载实验平台测试结果 | 第33-34页 |
2.4.2 Daimler车载视频测试效果 | 第34页 |
2.5 本章小结 | 第34-36页 |
第3章 基于深度学习的类小波行人特征获取 | 第36-58页 |
3.1 行人检测特征的分析与表达 | 第37-39页 |
3.2 小波变换 | 第39-41页 |
3.2.1 小波变换的基本原理 | 第39-40页 |
3.2.2 小波变换特征提取 | 第40页 |
3.2.3 类小波特征 | 第40-41页 |
3.3 深度神经网络 | 第41-50页 |
3.3.1 自编码网络 | 第42-44页 |
3.3.2 深度卷积神经网络 | 第44-48页 |
3.3.3 深度反卷积神经网络 | 第48-50页 |
3.4 类小波行人特征生成器的构建 | 第50-53页 |
3.4.1 模型框架的构建 | 第51-52页 |
3.4.2 训练过程 | 第52-53页 |
3.5 实验结果分析 | 第53-56页 |
3.6 本章小结 | 第56-58页 |
第4章 基于大脑启发式情绪学习的行人识别算法 | 第58-72页 |
4.1 结构基础 | 第58-59页 |
4.2 杏仁核-眶额模型框架 | 第59-61页 |
4.3 大脑启发式情绪学习分类模型 | 第61-64页 |
4.3.1 模型的结构 | 第61-63页 |
4.3.2 模型扩展 | 第63-64页 |
4.4 模型的训练策略 | 第64-66页 |
4.5 实验结果分析 | 第66-69页 |
4.6 本章小结 | 第69-72页 |
第5章 总结与展望 | 第72-74页 |
5.1 工作总结 | 第72-73页 |
5.2 研究展望 | 第73-74页 |
参考文献 | 第74-78页 |
作者简介 | 第78-80页 |
致谢 | 第80-81页 |