首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

行人重识别关键匹配技术研究

论文创新点第5-9页
摘要第9-11页
Abstract第11-13页
第1章 绪论第14-24页
    1.1 课题研究背景与意义第14-15页
    1.2 研究现状与存在的问题第15-21页
        1.2.1 基于图像的行人重识别研究第15-19页
        1.2.2 基于视频的行人重识别研究第19-20页
        1.2.3 亟待解决的问题第20-21页
    1.3 本文的研究内容第21-22页
    1.4 本文的组织结构第22-24页
第2章 基于负样本区别对待的度量学习行人重识别算法第24-39页
    2.1 引言第24-26页
        2.1.1 研究动机第25页
        2.1.2 主要贡献第25-26页
    2.2 伪装者样本与正确匹配样本对的对应关系及伪装者样本去除第26-27页
    2.3 基于负样本区别对待的度量学习第27-31页
        2.3.1 负样本划分第27-28页
        2.3.2 问题建模第28-30页
        2.3.3 目标函数优化第30页
        2.3.4 与现有工作的对比第30-31页
    2.4 实验结果第31-35页
        2.4.1 实验设置第31-33页
        2.4.2 VIPeR数据集上的实验结果第33页
        2.4.3 ETHZ数据集上的实验结果第33-34页
        2.4.4 i-LIDS数据集上的实验结果第34-35页
    2.5 讨论与分析第35-38页
        2.5.1 对称三元组约束的作用第35-37页
        2.5.2 良好可分负样本的作用第37页
        2.5.3 参数分析第37-38页
    2.6 本章小结第38-39页
第3章 基于半耦合低秩鉴别字典的超分辨率行人重识别算法第39-69页
    3.1 引言第39-41页
        3.1.1 研究动机第40-41页
        3.1.2 主要贡献第41页
    3.2 相关工作第41-43页
        3.2.1 基于耦合字典学习的图像超分辨率方法第41-42页
        3.2.2 基于半监督耦合字典学习的行人重识别方法第42页
        3.2.3 半耦合字典学习方法第42-43页
        3.2.4 与相关方法对比第43页
    3.3 半耦合低秩鉴别字典学习方法第43-49页
        3.3.1 问题建模第43-46页
        3.3.2 目标函数优化第46-49页
    3.4 多视图半耦合低秩鉴别字典学习方法第49-52页
    3.5 利用学到的字典和映射进行超分辨率行人重识别第52-54页
        3.5.1 半耦合低秩鉴别字典学习方法用于重识别第52-53页
        3.5.2 多视图半耦合低秩鉴别字典学习方法用于重识别第53-54页
    3.6 实验结果第54-62页
        3.6.1 对比方法与实验设置第54页
        3.6.2 VIPeR数据集上的实验结果第54-55页
        3.6.3 i-LIDS数据集上的实验结果第55-56页
        3.6.4 PRID 2011数据集上的实验结果第56-57页
        3.6.5 ETHZ数据集上的实验结果第57-58页
        3.6.6 CUHK01数据集上的实验结果第58-59页
        3.6.7 SLD2L与MVSLD2L的结果比较第59-60页
        3.6.8 对低分辨率图像执行超分辨率情况下的结果比较第60-61页
        3.6.9 对高分辨率图像执行下采样操作情况下的结果比较第61-62页
    3.7 进一步讨论和分析第62-68页
        3.7.1 目标函数中各功能项的作用第62-63页
        3.7.2 图像块大小的影响第63-64页
        3.7.3 聚类个数的影响第64页
        3.7.4 字典大小的影响第64页
        3.7.5 低分辨率测试图像的分辨率的影响第64-65页
        3.7.6 Probe图像为混合分辨率情况下的对比第65页
        3.7.7 低分辨率训练图像的分辨率的影响第65-66页
        3.7.8 特征数量的影响第66-67页
        3.7.9 和SSCDL方法的进一步比较第67-68页
        3.7.10 计算代价第68页
    3.8 本章小结第68-69页
第4章 基于视频内和视频间度量学习的视频行人重识别算法第69-86页
    4.1 引言第69-71页
        4.1.1 研究动机第71页
        4.1.2 主要贡献第71页
    4.2 相关工作第71-72页
        4.2.1 基于视频的行人重识别第71-72页
        4.2.2 基于集合的度量学习第72页
    4.3 同时的视频内和视频间度量学习方法第72-78页
        4.3.1 问题建模第72-75页
        4.3.2 目标函数优化第75-77页
        4.3.3 计算复杂度和收敛性分析第77-78页
        4.3.4 利用学到的距离度量进行视频行人重识别第78页
    4.4 实验与分析第78-81页
        4.4.1 实验设置第78-79页
        4.4.2 iLIDS-VID数据集上的实验结果第79-80页
        4.4.3 PRID 2011数据集上的实验结果第80-81页
    4.5 分析与讨论第81-84页
        4.5.1 学习一对距离度量与一个公共度量的比较第81页
        4.5.2 视频内和视频间距离度量的维度的影响第81-82页
        4.5.3 和其他基于集合的度量学习方法对比第82-84页
        4.5.4 参数分析第84页
    4.6 本章小结第84-86页
第5章 基于投影和异质字典对学习的图像到视频行人重识别第86-102页
    5.1 引言第86-89页
        5.1.1 研究动机第87页
        5.1.2 主要贡献第87-89页
    5.2 提出的方法第89-94页
        5.2.1 问题建模第89-90页
        5.2.2 目标函数优化第90-93页
        5.2.3 计算复杂度第93页
        5.2.4 使用学到的字典对和映射矩阵进行图像到视频行人重识别第93-94页
        5.2.5 和已有字典学习方法的比较第94页
    5.3 实验结果第94-97页
        5.3.1 数据集介绍第94页
        5.3.2 实验设置第94-95页
        5.3.3 结果和分析第95-97页
    5.4 进一步讨论和分析第97-101页
        5.4.1 特征投影矩阵的作用第97页
        5.4.2 字典和特征投影矩阵的大小的影响第97-98页
        5.4.3 参数分析第98-100页
        5.4.4 收敛性分析第100-101页
    5.5 本章小结第101-102页
第6章 总结与展望第102-104页
    6.1 本文工作总结第102-103页
    6.2 未来工作展望第103-104页
参考文献第104-112页
读博期间取得的研究成果第112-113页
读博期间参与的研究课题第113-114页
致谢第114页

论文共114页,点击 下载论文
上一篇:压缩感知理论在图像信息保护中的应用研究
下一篇:稀疏图子空间学习算法研究