论文创新点 | 第5-9页 |
摘要 | 第9-11页 |
Abstract | 第11-13页 |
第1章 绪论 | 第14-24页 |
1.1 课题研究背景与意义 | 第14-15页 |
1.2 研究现状与存在的问题 | 第15-21页 |
1.2.1 基于图像的行人重识别研究 | 第15-19页 |
1.2.2 基于视频的行人重识别研究 | 第19-20页 |
1.2.3 亟待解决的问题 | 第20-21页 |
1.3 本文的研究内容 | 第21-22页 |
1.4 本文的组织结构 | 第22-24页 |
第2章 基于负样本区别对待的度量学习行人重识别算法 | 第24-39页 |
2.1 引言 | 第24-26页 |
2.1.1 研究动机 | 第25页 |
2.1.2 主要贡献 | 第25-26页 |
2.2 伪装者样本与正确匹配样本对的对应关系及伪装者样本去除 | 第26-27页 |
2.3 基于负样本区别对待的度量学习 | 第27-31页 |
2.3.1 负样本划分 | 第27-28页 |
2.3.2 问题建模 | 第28-30页 |
2.3.3 目标函数优化 | 第30页 |
2.3.4 与现有工作的对比 | 第30-31页 |
2.4 实验结果 | 第31-35页 |
2.4.1 实验设置 | 第31-33页 |
2.4.2 VIPeR数据集上的实验结果 | 第33页 |
2.4.3 ETHZ数据集上的实验结果 | 第33-34页 |
2.4.4 i-LIDS数据集上的实验结果 | 第34-35页 |
2.5 讨论与分析 | 第35-38页 |
2.5.1 对称三元组约束的作用 | 第35-37页 |
2.5.2 良好可分负样本的作用 | 第37页 |
2.5.3 参数分析 | 第37-38页 |
2.6 本章小结 | 第38-39页 |
第3章 基于半耦合低秩鉴别字典的超分辨率行人重识别算法 | 第39-69页 |
3.1 引言 | 第39-41页 |
3.1.1 研究动机 | 第40-41页 |
3.1.2 主要贡献 | 第41页 |
3.2 相关工作 | 第41-43页 |
3.2.1 基于耦合字典学习的图像超分辨率方法 | 第41-42页 |
3.2.2 基于半监督耦合字典学习的行人重识别方法 | 第42页 |
3.2.3 半耦合字典学习方法 | 第42-43页 |
3.2.4 与相关方法对比 | 第43页 |
3.3 半耦合低秩鉴别字典学习方法 | 第43-49页 |
3.3.1 问题建模 | 第43-46页 |
3.3.2 目标函数优化 | 第46-49页 |
3.4 多视图半耦合低秩鉴别字典学习方法 | 第49-52页 |
3.5 利用学到的字典和映射进行超分辨率行人重识别 | 第52-54页 |
3.5.1 半耦合低秩鉴别字典学习方法用于重识别 | 第52-53页 |
3.5.2 多视图半耦合低秩鉴别字典学习方法用于重识别 | 第53-54页 |
3.6 实验结果 | 第54-62页 |
3.6.1 对比方法与实验设置 | 第54页 |
3.6.2 VIPeR数据集上的实验结果 | 第54-55页 |
3.6.3 i-LIDS数据集上的实验结果 | 第55-56页 |
3.6.4 PRID 2011数据集上的实验结果 | 第56-57页 |
3.6.5 ETHZ数据集上的实验结果 | 第57-58页 |
3.6.6 CUHK01数据集上的实验结果 | 第58-59页 |
3.6.7 SLD2L与MVSLD2L的结果比较 | 第59-60页 |
3.6.8 对低分辨率图像执行超分辨率情况下的结果比较 | 第60-61页 |
3.6.9 对高分辨率图像执行下采样操作情况下的结果比较 | 第61-62页 |
3.7 进一步讨论和分析 | 第62-68页 |
3.7.1 目标函数中各功能项的作用 | 第62-63页 |
3.7.2 图像块大小的影响 | 第63-64页 |
3.7.3 聚类个数的影响 | 第64页 |
3.7.4 字典大小的影响 | 第64页 |
3.7.5 低分辨率测试图像的分辨率的影响 | 第64-65页 |
3.7.6 Probe图像为混合分辨率情况下的对比 | 第65页 |
3.7.7 低分辨率训练图像的分辨率的影响 | 第65-66页 |
3.7.8 特征数量的影响 | 第66-67页 |
3.7.9 和SSCDL方法的进一步比较 | 第67-68页 |
3.7.10 计算代价 | 第68页 |
3.8 本章小结 | 第68-69页 |
第4章 基于视频内和视频间度量学习的视频行人重识别算法 | 第69-86页 |
4.1 引言 | 第69-71页 |
4.1.1 研究动机 | 第71页 |
4.1.2 主要贡献 | 第71页 |
4.2 相关工作 | 第71-72页 |
4.2.1 基于视频的行人重识别 | 第71-72页 |
4.2.2 基于集合的度量学习 | 第72页 |
4.3 同时的视频内和视频间度量学习方法 | 第72-78页 |
4.3.1 问题建模 | 第72-75页 |
4.3.2 目标函数优化 | 第75-77页 |
4.3.3 计算复杂度和收敛性分析 | 第77-78页 |
4.3.4 利用学到的距离度量进行视频行人重识别 | 第78页 |
4.4 实验与分析 | 第78-81页 |
4.4.1 实验设置 | 第78-79页 |
4.4.2 iLIDS-VID数据集上的实验结果 | 第79-80页 |
4.4.3 PRID 2011数据集上的实验结果 | 第80-81页 |
4.5 分析与讨论 | 第81-84页 |
4.5.1 学习一对距离度量与一个公共度量的比较 | 第81页 |
4.5.2 视频内和视频间距离度量的维度的影响 | 第81-82页 |
4.5.3 和其他基于集合的度量学习方法对比 | 第82-84页 |
4.5.4 参数分析 | 第84页 |
4.6 本章小结 | 第84-86页 |
第5章 基于投影和异质字典对学习的图像到视频行人重识别 | 第86-102页 |
5.1 引言 | 第86-89页 |
5.1.1 研究动机 | 第87页 |
5.1.2 主要贡献 | 第87-89页 |
5.2 提出的方法 | 第89-94页 |
5.2.1 问题建模 | 第89-90页 |
5.2.2 目标函数优化 | 第90-93页 |
5.2.3 计算复杂度 | 第93页 |
5.2.4 使用学到的字典对和映射矩阵进行图像到视频行人重识别 | 第93-94页 |
5.2.5 和已有字典学习方法的比较 | 第94页 |
5.3 实验结果 | 第94-97页 |
5.3.1 数据集介绍 | 第94页 |
5.3.2 实验设置 | 第94-95页 |
5.3.3 结果和分析 | 第95-97页 |
5.4 进一步讨论和分析 | 第97-101页 |
5.4.1 特征投影矩阵的作用 | 第97页 |
5.4.2 字典和特征投影矩阵的大小的影响 | 第97-98页 |
5.4.3 参数分析 | 第98-100页 |
5.4.4 收敛性分析 | 第100-101页 |
5.5 本章小结 | 第101-102页 |
第6章 总结与展望 | 第102-104页 |
6.1 本文工作总结 | 第102-103页 |
6.2 未来工作展望 | 第103-104页 |
参考文献 | 第104-112页 |
读博期间取得的研究成果 | 第112-113页 |
读博期间参与的研究课题 | 第113-114页 |
致谢 | 第114页 |