视频场景的行人目标再识别
| 致谢 | 第5-6页 |
| 摘要 | 第6-7页 |
| Abstract | 第7-8页 |
| 第1章 绪论 | 第11-18页 |
| 1.1 研究背景和意义 | 第11-12页 |
| 1.2 行人再识别发展历史及研究现状 | 第12-13页 |
| 1.3 行人再识别面临的挑战 | 第13-15页 |
| 1.4 评价标准 | 第15-16页 |
| 1.5 论文的主要研究内容和章节安排 | 第16-18页 |
| 1.5.1 主要研究内容 | 第16-17页 |
| 1.5.2 主要研究内容 | 第17-18页 |
| 第2章 行人再识别概述 | 第18-31页 |
| 2.1 引言 | 第18页 |
| 2.2 基于特征表示的行人再识别 | 第18-25页 |
| 2.2.1 基于底层特征表示的行人再识别 | 第18-21页 |
| 2.2.2 基于语义特征的行人再识别 | 第21-23页 |
| 2.2.3 基于高级视觉特征的行人再识别 | 第23-25页 |
| 2.3 相似性度量模型学习 | 第25-30页 |
| 2.3.1 距离度量学习 | 第25-28页 |
| 2.3.2 特征转移函数学习 | 第28-29页 |
| 2.3.3 迁移学习 | 第29-30页 |
| 2.4 本章小结 | 第30-31页 |
| 第3章 基于正则化的顶推距离学习算法 | 第31-45页 |
| 3.1 引言 | 第31页 |
| 3.2 基于正则化的顶推距离度量学习算法 | 第31-36页 |
| 3.2.1 大间隔最近邻算法 | 第31-32页 |
| 3.2.2 顶推距离度量学习算法 | 第32-35页 |
| 3.2.3 正则化的顶推距离度量学习算法 | 第35-36页 |
| 3.3 特征提取 | 第36-39页 |
| 3.3.1 颜色特征 | 第36-37页 |
| 3.3.2 纹理特征 | 第37-38页 |
| 3.3.3 本文特征提取方法 | 第38-39页 |
| 3.4 实验结果分析 | 第39-44页 |
| 3.4.1 PRID2011数据库实验结果分析 | 第39-42页 |
| 3.4.2 iLIDS-VID数据库实验结果分析 | 第42-44页 |
| 3.5 本章小结 | 第44-45页 |
| 第4章 基于改进的交叉二次判别的行人再识别 | 第45-56页 |
| 4.1 引言 | 第45页 |
| 4.2 基于马氏距离度量学习的行人再识别算法 | 第45-46页 |
| 4.2.1 KISSME算法 | 第45-46页 |
| 4.2.2 二次判别度量学习算法 | 第46页 |
| 4.3 基于PLDA的XQDA参数优化 | 第46-50页 |
| 4.3.1 核矩阵求解 | 第47-48页 |
| 4.3.2 PLDA优化算法 | 第48-50页 |
| 4.4 PLDA-XQDA算法实现 | 第50-51页 |
| 4.5 实验结果与分析 | 第51-55页 |
| 4.5.1 VIPeR数据库实验结果分析 | 第51-53页 |
| 4.5.2 GRID数据库实验结果分析 | 第53-55页 |
| 4.6 本章小结 | 第55-56页 |
| 第5章 总结与展望 | 第56-58页 |
| 5.1 本文研究总结 | 第56页 |
| 5.2 研究工作展望 | 第56-58页 |
| 参考文献 | 第58-67页 |
| 作者简历 | 第67页 |