摘要 | 第4-5页 |
Abstract | 第5页 |
第1章 绪论 | 第8-15页 |
1.1 课题研究背景及意义 | 第8-9页 |
1.2 课题研究现状及分析 | 第9-13页 |
1.2.1 传统方法研究现状 | 第9-11页 |
1.2.2 深度学习方法研究现状 | 第11-12页 |
1.2.3 行人再识别目前所面对的问题 | 第12-13页 |
1.3 本文主要研究内容 | 第13-14页 |
1.4 本文的结构 | 第14-15页 |
第2章 行人再识别相关算法简介 | 第15-31页 |
2.1 引言 | 第15页 |
2.2 行人运动特征提取 | 第15-21页 |
2.2.1 光流图Optical Flow | 第15-16页 |
2.2.2 运动强度图Epic Flow | 第16-21页 |
2.2.3 两种运动强度图的对比分析 | 第21页 |
2.3 图片筛选和行人空间特征提取 | 第21-27页 |
2.3.1 能量流信息FEP | 第21-22页 |
2.3.2 色彩校正:基于HSV的MSRCR | 第22-23页 |
2.3.3 颜色特征:GOG(Gaussian of Gaussian) | 第23-25页 |
2.3.4 卷积神经网络CNN和循环神经网络RNN | 第25-26页 |
2.3.5 特征筛选方法的对比分析 | 第26-27页 |
2.4 度量学习 | 第27-30页 |
2.4.1 大间隔最近邻居LMNN和TDL | 第27-28页 |
2.4.2 距离测度学习KISSME和XQDA | 第28-29页 |
2.4.3 神经网络分类器 | 第29页 |
2.4.4 对比分析 | 第29-30页 |
2.5 本章小结 | 第30-31页 |
第3章 行人再识别算法的设计与实现 | 第31-42页 |
3.1 引言 | 第31页 |
3.2 行人再识别网络模型的改进 | 第31-34页 |
3.2.1 行人再识别孪生网络 | 第31-32页 |
3.2.2 改进后的行人再识别网络 | 第32-34页 |
3.3 提取行人关键帧 | 第34-38页 |
3.3.1 行人行走的周期特性 | 第35-37页 |
3.3.2 行人关键帧提取过程 | 第37-38页 |
3.4 数据集扩充 | 第38-39页 |
3.5 损失函数 | 第39-41页 |
3.6 本章小结 | 第41-42页 |
第4章 改进后孪生网络的实验结果对比及分析 | 第42-55页 |
4.1 实验条件介绍 | 第42-44页 |
4.1.1 实验设置及实验环境 | 第42页 |
4.1.2 数据集介绍 | 第42-44页 |
4.1.3 评价指标:CMC曲线 | 第44页 |
4.2 改进后孪生网络中各模块的实验对比分析 | 第44-53页 |
4.2.1 颜色校正对比分析 | 第44-46页 |
4.2.2 行人Epic Flow图提取 | 第46-47页 |
4.2.3 Optical Flow和Epic Flow对比分析 | 第47-48页 |
4.2.4 行人关键帧提取分析 | 第48-50页 |
4.2.5 行人视频帧选取分析 | 第50-51页 |
4.2.6 改进网络的结果对比分析 | 第51-53页 |
4.3 改进网络的时间性能分析 | 第53-54页 |
4.4 本章小结 | 第54-55页 |
结论 | 第55-57页 |
参考文献 | 第57-62页 |
附录 | 第62-65页 |
致谢 | 第65页 |