致谢 | 第7-8页 |
摘要 | 第8-9页 |
ABSTRACT | 第9-10页 |
第一章 绪论 | 第16-23页 |
1.1 引言 | 第16-17页 |
1.2 研究背景及意义 | 第17-19页 |
1.3 本文主要工作及结构安排 | 第19-23页 |
1.3.1 本文主要工作 | 第19-21页 |
1.3.2 本文结构安排 | 第21-23页 |
第二章 行人再识别和搜索相关技术的研究综述 | 第23-31页 |
2.1 引言 | 第23页 |
2.2 基于静态图像的行人再识别技术研究现状 | 第23-27页 |
2.2.1 传统方法 | 第23-25页 |
2.2.2 深度学习技术方法 | 第25-27页 |
2.3 基于视频序列的行人再识别技术研究现状 | 第27-29页 |
2.3.1 传统方法 | 第27-28页 |
2.3.2 深度学习技术方法 | 第28-29页 |
2.4 行人搜索技术研究现状 | 第29-31页 |
第三章 基于比较性视觉注意力模型的端到端行人再识别 | 第31-59页 |
3.1 引言 | 第31-33页 |
3.2 CAN模型整体框架结构 | 第33-35页 |
3.2.1 训练阶段 | 第33-35页 |
3.2.2 测试阶段 | 第35页 |
3.3 全局区分性特征学习元件 | 第35-38页 |
3.3.1 AlexNet | 第36-37页 |
3.3.2 VGG-16 | 第37-38页 |
3.4 比较性注意力元件 | 第38-43页 |
3.4.1 长短时记忆网络 | 第38-40页 |
3.4.2 比较性注意力元件 | 第40-42页 |
3.4.3 三元组选择 | 第42-43页 |
3.5 实验结果与分析 | 第43-57页 |
3.5.1 数据集以及评价标准 | 第43-44页 |
3.5.2 实现细节 | 第44-45页 |
3.5.3 数据增强 | 第45页 |
3.5.4 模型分析 | 第45-49页 |
3.5.5 同其他最新方法性能比较 | 第49-56页 |
3.5.6 注意力图可视化及讨论 | 第56-57页 |
3.6 本章小结 | 第57-59页 |
第四章 基于累积运动上下文的视频行人再识别 | 第59-79页 |
4.1 引言 | 第59-61页 |
4.2 AMOC网络结构 | 第61-63页 |
4.2.1 AMOC整体框架 | 第61-62页 |
4.2.2 运动网络 | 第62-63页 |
4.2.3 空间网络 | 第63页 |
4.3 空间融合以及运动上下文累积 | 第63-67页 |
4.3.1 空间融合 | 第63-65页 |
4.3.2 运动上下文累积 | 第65-66页 |
4.3.3 多任务损失函数 | 第66-67页 |
4.4 实现细节 | 第67-69页 |
4.4.1 运动网络的预训练 | 第67-68页 |
4.4.2 AMOC的端到端训练 | 第68-69页 |
4.5 实验结果与分析 | 第69-78页 |
4.5.1 数据集 | 第69页 |
4.5.2 实验设置和评价标准 | 第69-70页 |
4.5.3 AMOC模型分析 | 第70-75页 |
4.5.4 同其他最新方法性能比较 | 第75-78页 |
4.6 本章小结 | 第78-79页 |
第五章 基于神经网络行人搜索机的行人搜索 | 第79-96页 |
5.1 引言 | 第79-81页 |
5.2 NPSM网络结构及ResNet-50介绍 | 第81-84页 |
5.2.1 NPSM整体框架 | 第81-82页 |
5.2.2 ResNet-50 | 第82-84页 |
5.3 基于NPSM的行人搜索 | 第84-88页 |
5.3.1 神经搜索网络 | 第84-86页 |
5.3.2 基于原记忆的区域收缩 | 第86-88页 |
5.4 NPSM的训练 | 第88-89页 |
5.5 实验结果与分析 | 第89-94页 |
5.5.1 数据集和评价标准 | 第89页 |
5.5.2 实现细节 | 第89-90页 |
5.5.3 消除性实验 | 第90-91页 |
5.5.4 同其他最新方法性能比较 | 第91-94页 |
5.6 本章小结 | 第94-96页 |
第六章 总结与展望 | 第96-99页 |
6.1 发展 | 第96-97页 |
6.2 展望 | 第97-99页 |
参考文献 | 第99-108页 |
攻读博士学位期间的学术活动及成果情况 | 第108-109页 |